软件学报  2024, Vol. 35 Issue (5): 2150-2164   PDF    
基于条件语义增强的文本到图像生成
余凯1,2, 宾燚1, 郑自强1 , 杨阳1     
1. 电子科技大学 计算机科学与工程学院, 四川 成都 611731;
2. 电子科技大学(深圳)高等研究院, 广东 深圳 518110
摘要: 文本到图像生成取得了视觉上的优异效果, 但存在细节表达不足的问题. 于是提出基于条件语义增强的生成对抗模型(conditional semantic augmentation generative adversarial network, CSA-GAN). 所提模型首先将文本进行编码, 使用条件语义增强对其进行处理. 之后, 提取生成器的中间特征进行上采样, 再通过两层CNN生成图像的掩码. 最后将文本编码送入两个感知器处理后和掩码进行融合, 充分融合图像空间特征和文本语义, 以提高细节表达. 为了验证所提模型的生成图像的质量, 在不同的数据集上进行定量分析、定性分析. 使用IS (inception score)、FID (Frechet inception distance)指标对图像清晰度, 多样性和图像的自然真实程度进行定量评估. 定性分析包括可视化生成的图像, 消融实验分析具体模块等. 结果表明: 所提模型均优于近年来同类最优工作. 这充分验证所提出的方法具有更优性能, 同时能够优化图像生成过程中一些主体特征细节的表达.
关键词: 文本到图像生成    条件语义增强    空间-语义融合    
Text-to-image Generation with Conditional Semantic Augmentation
YU Kai1,2, BIN Yi1, ZHENG Zi-Qiang1 , YANG Yang1     
1. School of Computer Science and Engineering, University of Electronic Science and Technology of China, Chengdu 611731, China;
2. Shenzhen Institute for Advanced Study, University of Electronic Science and Technology of China, Shenzhen 518110, China
Abstract: Text-to-image generation achieves excellent visual results but suffers from the problem of insufficient detail representation. This study proposes the conditional semantic augmentation generative adversarial network (CSA-GAN). The model first encodes the text and processes it using conditional semantic augmentation. It then extracts the intermediate features of the generator for up-sampling and generates the image mask through a two-layer convolutional neural network (CNN). Finally, the text coding is sent to two perceptrons for processing and fusing with the mask, so as to fully integrate the image spatial and text semantics features to improve the detail representation. In order to verify the quality of the generated images of this model, quantitative and qualitative analyses are conducted on different datasets. This study employs inception score (IS) and Frechet inception distance (FID) metrics to quantitatively evaluate the image clarity, diversity, and natural realism of the images. The qualitative analyses include the visualization of the generated images and the analysis of specific modules of the ablation experiment. The results show that the proposed model is superior to the state-of-the-art works in recent years. This fully verifies that the proposed method has better performance and can optimize the expression of main feature details in the image generation process.
Key words: text-to-image generation    conditional semantic augmentation (CSA)    spatial-semantic fusion    

随着社会进步和科技发展, 人工智能技术的研究和应用日益增加. 国务院于2017年发布的 《新一代人工智能发展规划》 明确指出, 人工智能的快速发展将对人类社会生活和全球格局产生深远而广泛的影响, 因此将其确定为国家发展战略之一, 以充分把握人工智能发展带来的重要战略机遇. 计算机视觉作为人工智能领域的重要的一个分支, 在推动人工智能发展过程中扮演着至关重要的角色. 计算机视觉作为当前的研究热点, 也受到了广泛关注. 通过推动计算机视觉技术的研究和应用, 国家可以提高自身的竞争力, 改善民众的生活质量, 促进社会进步和可持续发展. 如在国家安全与防务中发挥关键作用, 提升边境安全和恐怖主义威胁检测能力. 在经济发展中有广泛应用, 提高生产效率、产品质量, 促进数字经济发展. 在健康医疗领域帮助医生进行准确诊断和治疗. 在支持社会安全和公共服务, 如交通管理、城市规划和公共安全管理, 提高社会整体安全和应急响应能力. 此外, 社会科学研究机构腾讯研究院发布的 《AI生成内容发展报告2020》 中指出, 合成技术具有潜力在影视、娱乐、教育、艺术等多个领域引发变革性影响的重大潜力.

自Goodfellow等人[1]提出生成对抗网络后, 图像到图像生成[2,3]、图像风格迁移[47]、文本到图像生成[810]、图像修复[11]等图像合成技术得到了快速发展. 其中, 由于文本到图像生成拥有强大的合成能力和良好的交互性, 所以备受研究人员的关注, 从而涌现了许多优秀的工作. 但文本到图像生成仍然面临一些重要挑战, 例如, 如何准确地理解文本描述并生成与之匹配且细节清晰的图像仍然是一个难点. 近年来, 为了准确捕捉文本描述与图像内容之间的语义和空间联系, 一些模型[1214]旨在建立文本语义和图像空间之间的联系. 然而, 当前文本到图像生成技术在生成图像得细节表达方面仍存在一些问题. 例如, 在某些细节场景中生成的图像可能显得和整体图像不和谐, 并且生成的对象缺乏必要的文本语义特征(如图1所示, 红色框标出的是生成鸟爪和生成背景的交界处. 其他方法生成的图像存在目标主体与其他物体不匹配的问题, 如鸟爪细节表达不足、边缘模糊, 而本文方法能有效缓解该问题, 生成的鸟爪细节特征表达充分, 轮廓清晰).

图 1 文本到图像生成示例图

为了解决上述问题, 本文提出了基于条件语义增强的生成方法, 在文本编码时, 进行了条件语义增强, 此外还设计了空间-语义融合模块以充分融合图像的空间特征和文本语义特征, 并设计使用残差生成器G0对生成的细节进行补充. 实验结果表明在图像的质量和细节方面, 本文方法都表现出更优越的性能. 本文的主要贡献如下.

(1) 本文在文本编码后进行条件语义增强, 以在给定少量的文本图像数据对的情况下能提供更多的增强数据, 提高小扰动在语义空间的鲁棒性以达到更准确的图像生成效果并为后续的细节场景提供潜在信息.

(2) 本文通过对中间层特征进行上采样生成图像掩码, 并与增强后的条件语义进行空间-语义融合, 以更好地适配生成符合文本描述的内容, 从而生成具有更丰富、准确细节的图像.

(3) 针对细节表达问题, 本文使用残差生成器G0对其中细节进行补充.

本文第1节介绍文本到图像生成相关方法和研究现状. 第2节介绍本文所需的基础知识, 包括生成对抗网络和深层注意力多模态相似模型损失. 第3节介绍本文构建的基于条件语义增强的文本到图像生成模型. 第4节通过对比实验验证了所提模型的有效性. 最后总结全文.

1 相关工作

自从Reed等人[15]通过条件生成对抗网络框架首次实现了文本到图像生成以来, 该方向得到了长足的进步. 以StackGAN[16]为代表的堆叠式生成对抗网络在一定程度上解决了难以生成高分辨率图像的问题, 其第1阶段根据文字描述草绘出一张简单形状和基本颜色符合的低分辨率图像, 第2阶段把第1阶段的输出结果和文字条件作为输入, 生成具有照片真实感的高分辨率的图片. 但该类方法训练需要较大的计算资源, 同时生成图像的过程更加复杂抽象, 存在可解释性较差的问题. 以DM-GAN[14]为代表的将生成对抗网络与动态记忆组件相结合, 以端到端生成高质量图像为目的, 解决以往方法中很大程度上依赖初始图像的质量的问题. 但该种方法生成过程涉及复杂的动态记忆机制, 导致生成图像的过程中仍存在可解释性问题, 同时训练过程相对复杂且需要消耗大量的计算资源. 以textStyleGAN[17]为代表的适应无条件模型通过引入额外的风格向量, 可以根据输入风格向量来生成具有不同视觉特征和风格的图像, 这使得用户可以以更精细的方式控制生成图像的外观. 但生成的图像可能受到训练数据的限制, 并且在处理复杂的文本描述时仍然存在难以理解复杂文本和准确生成的困难. 为了使得生成模型具有良好的可解释性和生成图像语义更符合文本描述, 一些细粒度的语义编辑方法[1820]相继提出. 注意力生成网络(attentional generative adversarial networks, AttnGAN)[18]使用注意力机制使得本文嵌入的过程中能够实现更加细粒度文本潜入的效果. 该类方法主要使用了多模态相似模型损失函数, 能够利用句子和单词信息计算生成图像与输入文本之间的相似性, 即在神经网络生成全局语义向量的基础上通过加权使得网络关注图像每个区域下最相关的单词. 但模型性能在很大程度上过度依赖于训练数据的质量和多样性. 为了改进模型性能, Huang等人[19]通过辅助边界框重新定义了目标网格(object-grid), 并在目标网格和单词词组之间建立额外的关系, 从而将注意力扩展到了网格上. 上述方法虽然生成了较高质量的图像, 但在视觉属性和文本描述的匹配关系存上仍在些许瑕疵. 为了解决这一问题, 可控文本到图像生成(controllable text-to-image generation, ControlGAN)[21]通过提出一个单词级别和通道注意力驱动生成器以生成文本描述对应的图像. 与之前论文的空间注意力相比, ControlGAN更加关注颜色信息, 其提出的通道注意力将语义上有意义的区域与相应的单词关联, 同时完成了图像生成任务和属性(类别, 纹理, 种类等)编辑. 单词级别的鉴别器为生成器提供了训练信息, 并通过解耦单词与单词之间的相关性以提供生成相应区域的视觉信息. 传统的文本到图像生成方法往往会产生一些语义不连贯或不准确的图像, 如将一只鸟放在水中, 或将一只斑马放在天空中等. 为了解决语义的不连贯或不准确, 基于语义分解的生成对抗网络 (semantics disen-tangling generative adversarial network, SD-GAN)[22]定义了语义解耦的文本到图像生成方法, 试图将文本和图像中的语义信息分解和控制, 以生成更准确和多样化的图像. 模型充分有效地利用了输入文本的语义, 采用了孪生网络结构从语言描述中提取语义, 进行共享, 但其框架需要消耗大量的计算资源, 而且该模型的生成器是不止一个, 相互之间影响非常大. 虽然SD-GAN中提出了单词级别和句子级别条件批量归一化(conditional batch normalization, CBN), 在图像特征图中注入文本信息, 在图像生成过程中, CBN只应用了几次, 导致文本特征和图像特征没有充分融合, 生成的图像也会出现模糊, 语义不匹配的问题.

为了解决上述的问题, DF-GAN[12]将框架设计为一阶段的训练模式, 并结合铰链损失(hinge loss)和残差结构, 增加了模型训练的稳定性, 可以直接生成高分辨率的图像. 这样做, 一方面节省了大量的计算资源, 另一方面由于设计的网络框架中只有一个生成器, 避免了不同生成器潜在的耦合. 此外, DF-GAN还设计了一个深度文本图像融合块模块和目标感知鉴别器(包括匹配-感知梯度惩罚和单向输出), 前者通过仿射变换将文本信息有效地融入到图像特征中. 后者用于增强语义一致性. 虽然, 这样仿射变换在图像的空间特征上同样有效. 但理想情况下, 文本信息应该只添加到与文本相关的子区域. 此外, 该模型只引入了句子级别的信息, 欠缺细粒度视觉特征合成的能力, 使得图像的细节部分出现不匹配或者细节场景生成质量不佳的情况. 为了解决该问题, Liao等人[13]提出语义空间感知网络(semantic-spatial aware GAN, SSA-GAN), 其核心模块为SSCBN (语义-空间批量归一化)、一个残差块和一个掩码预测器. 其中语义-空间批量归一化主要基于提取的文本特征向量学习语义-空间感知仿射的参数, 之后通过当前的文本图像融合的结果预测掩码映射. 这种仿射变换融合了文本和图像特征, 并在图像特征在语义上与文本保持一致. 然而, 在细节上还是存在一些问题, 如生成的图像在某些细节场景上出现突兀和生成的主体缺少必要的特征. 如图1中, 其他方法生成的图像, 存在目标主体与其他物体不匹配、边缘模糊等问题.

与先前的工作[13,15,18]直接将文本进行编码嵌入得到特征表示不同, 本文将编码后的文本特征进行条件增强, 缓解了前者因为维度 (通常是大于100的)过高造成文本语义空间稀疏的问题 (导致生成的图像在某些细节场景上出现突兀和生成的主体缺少必要的特征). 本文通过提供更多的增强训练数据, 提高小扰动在语义空间流形上的鲁棒性以达到更准确的图像生成效果, 并对其中细节进行补充. 另外, 本文提出一个新颖的残差生成器G0对生成图像的细节部分进行补充从而获得更好的细节表征效果.

2 基础知识

本文所提方法主要基于生成对抗网络和深层注意力多模态相似模型损失, 下面就相关概念和基本知识予以介绍.

2.1 生成对抗网络

生成对抗网络(generative adversarial network, GAN)[1]是由谷歌研究员Goodfellow等人于2014年基于零和博弈理论[23,24]提出的模型. 模型包括生成器G和鉴别器D, 两者相互对抗训练, 其中生成器G生成看起来真实的图像以欺骗鉴别器D, 而鉴别器D则用于判断图像是真实的还是生成的, 其训练架构如图2所示, 从高斯分布中随机采样一个噪声信号z, 经过生成器生成相应的生成数据, 与真实数据同时输入到鉴别器中, 并由判别器对其进行真假判定. 该训练过程可以表示为:

图 2 生成对抗网络框架

minGmaxDV(D,G)=Exp(x)[logD(x)]+Ezp(z)[log(1D(G(z)))] (1)

其中, x代表用于训练的真实图像, z代表随机生成的噪声向量, G(z)代表模型生成的图像, D(x)代表对真实图像的鉴别器输出, D(G(z)))代表对生成图像的鉴别器输出. 鉴别器旨在最大化目标函数, 而生成器旨在最小化目标函数. 两者相互对抗, 达到一个纳什均衡点, 从而实现对抗训练.

然而, 在GAN模型训练中, 模式崩溃是一个常见问题[25]. 这种现象可能出现在生成器生成的数据分布变化有限, 导致生成的图像出现重复的视觉特征. 不合理的生成器结构设计、或与生成器不匹配的鉴别器以及不平衡的训练过程都可能导致此现象. 此外, 由于生成器和鉴别器之间的博弈, 训练过程往往难以稳定. 可能会出现生成器过度拟合鉴别器, 或者鉴别器过于强大导致生成的图像缺乏视觉语义. 此外, 鉴别器对生成器的梯度过大或过小也会导致训练不稳定. 为了解决这些问题, Arjovsky等人[25]提出了使用Wasserstein距离作为生成器和鉴别器之间的度量函数. Wasserstein距离定义如下:

W(Pr,Pg)=infγΠ(Pr,Pg)E(x,y)γ[|xy|] (2)

其中, PrPg分别代表真实数据分布和生成数据分布, Π(Pr,Pg)表示两个分布之间的转移概率矩阵, (x,y)γ表示γ 中的一个样本, |xy|表示它们的距离. 相对而言, 使用Wasserstein避免了使用传统JS散度和KL散度存在的问题, 即两个数据分布较远时梯度为0, 而且, Wasserstein是一种计算真实数据分布与生成数据之间距离的一种方式, 具有更加平滑的梯度, 使模型具有更佳的收敛性.

在图像生成中, 使用GAN框架时同时为避免训练时出现问题, LSGAN[26]是一种较为通用的方法. LSGAN采用最小二乘损失函数, 更容易收敛到最优解, 与传统GAN模型所采用的交叉熵损失函数相比, 避免了饱和效应和梯度消失的问题, 于是提高了模型的稳定性, 进而能够生成更加优异的图像. 同时, 最小二乘损失函数更具有解释性, 因为它是基于真实图像和生成图像之间计算的直接差异, 而不是计算两个分布之间的距离. 其数学表达式为:

minGmaxDV(D,G)=12Expdata(x)[(D(x)1)2]+12Ezpz(z)[(D(G(z)))2] (3)

其中, D(x)D(G(z))分别代表对真实数据的鉴别值和生成数据的鉴别值. 这种损失函数的使用改善了生成器的稳定性, 提高了鉴别器的训练速度.

2.2 深层注意力多模态相似模型损失

深层注意力多模态相似模型(deep attentional multi-modal similarity model, DAMSM)[13]损失是一种用于生成多模态结果的GAN损失函数. 它针对图像生成任务中的多模态性质进行了设计, 目的是提高生成的多样性. 该模型将图像子区域和文本单词映射到同一个语义空间, 以度量单词级别的文本图像相似度. 其中, 图像编码器是基于在ImageNet数据集上预训练的Inception V3模型进行构建的. 利用中间层学习局部特征fRm×n (m是局部特征向量的维数, n是图像子区域数量)和全局特征ˉfR2048. 然后, 通过一个感知器层, 将图像语义特征转换为文本特征语义空间:

v=Wf, ˉv=¯Wˉf (4)

其中, vRD×289, vi是图像对应第i个区域的视觉语义特征, ˉvRD是图像全局语义特征, D是图像-文本特征空间维度. 文本编码器模型中, 单词特征eRD×T, 其中ei表示第i个单词的特征向量, D是单词向量的维度, T是单词向量数量, 全局文本语义特征记为ˉeRD. 首先计算图像子区域和单词之间的相似度:

s=eTv (5)

其中, sRT×289, si,j是文本中第i个单词和图像中第j个子区域之间的内积相似性, 并进行归一化:

ˉsi,j=exp(si,j)T1k=0exp(sk,j) (6)

之后, 基于注意力机制建立一个模型, 查询每个单词区域上下文及其特征向量ci是文本中第i个单词对应的图像子区域表示, 为所有视觉区域向量的加权和:

ci=n1j=0αjvj,,αj=exp(γ1ˉsi,j)n1k=0exp(γ1ˉsi,k) (7)

其中, γ1是在计算单词上下文时对相关区域语义特征关注程度. 最终, 用余弦相似性度量ciei, 即R(ci,ei)=cTieiciei, 描述整图区域与文本之间的匹配分数为:

R(Q,D)=log(T1i=1exp(γ2R(ci,ei)))1γ2 (8)

其中, γ2决定相关单词与对应区域的重要程度. 特别地, 当γ2时, 原式便趋近于maxT1i=1R(ciei). 基于半监督的学习注意力模型DAMSM, 其中半监督体现在整图对整文本之间的匹配. 对于图像文本对{(QiDi)}Mi=1, 文本中的句子Di和图像Qi之间的后验概率:

P(Di|Qi)=exp(γ3R(Qi,Di))Mj=1exp(γ3R(Qi,Di)) (9)

其中, 超参数γ3是由实验决定的平滑因子. 在图像-文本对中, 只有DiQi配对, 将剩余下的均视为不匹配, 进而, 定义损失函数为:

Lw1=Mi=1logP(Di|Qi) (10)

相对地,

Lw2=Mi=1logP(Qi|Di) (11)

其中, s为文本中语句中的单词. 重新定义公式(8)为R(Q,D)=ˉvTˉeˉvˉe, 替换公式(9)–公式(11). 并且使用全局文本特征ˉe和全局图像特征ˉv, 得到句子的损失函数Ls1Ls2. 那么就将得到DAMSM损失:

LDAMSM=Lw1+Lw2+Ls1+Ls2 (12)
3 基于条件语义增强的文本到图像生成

文本到图像生成是基于生成对抗网络框架, 根据给定的文本描述自动生成相应的图像. 近年来, 一些同期工作(如DF-GAN[12]、SD-GAN[22]、SSA-GAN[13]、Text2Shape[27])都基于细粒度上做了一些改进, 取得了质量优秀的生成图像. 然而, 这些工作生成的图像在细节上还是存在一些问题, 如目标主体与其他物体不匹配、边缘模糊等. 为了研究这些问题, 本文将生成的掩码可视化后, 实验结果显示这些掩码存在不完整、不准确等问题, 甚至存在部分生成的问题, 经过实验分析, 本文推测可能的原因是由于语义样本稀疏造成的, 语义空间不连续, 从而导致生成的图像在某些细节场景上存在表现与背景信息不协调的问题. 如前文图1所示, 根据描述“This is a gray bird with black wings and white wingbars light yellow sides and yellow eyebrows”生成的图像中, 主体与其他物体轮廓的颜色与描述不匹配. 此外, 图1中第3列生成图像的主体缺少必要的特征, 如即其他方法生成鸟爪与其他物体兼容性差、边缘模糊等问题. 本文针对上述问题, 提出基于条件语义增强的生成对抗网络(conditional semantic augmentation generative adversarial network, CSA-GAN). 在文本编码时, CSA-GAN进行了条件语义增强, 以在给定少量的文本图像数据对的情况下能提供更多的增强数据, 从而使得语义空间连续, 提高了生成器在条件数据空间上对小扰动的鲁棒性. 此外, 本文在生成掩码的基础上设计了空间-语义融合模块, 以充分融合图像的空间特征和文本语义特征. 针对细节表达问题, 本文采用残差生成器G0对其进行细节补充. 具体而言, 本文设计了一个残差结构, 将G0和空间-语义融合的输出结果进行叠加, 自适应地将两部分输出融合从而得到细节更丰富、更准确的图像. 整个模型框架图如后文图3所示.

图 3 本文模型框架图

3.1 文本编码

本文首先将文本进行嵌入, 使用双向LSTM模型对其进行编码得到相应的特征表示. 双向LSTM模型由两个单向LSTM模型组成, 分别称为前向LSTM和后向LSTM. 通过这两个模型的正向和反向处理, 可以更好地捕捉序列中的上下文信息. 在文本语义表示任务中, 双向LSTM输出按时间步进行拼接, 以得到更丰富的单词表示, 从而提高文本信息的表达能力. 双向LSTM将输入序列按时间步展开, 每个时间步将输入的单词转换为一个向量表示. 在正向LSTM中, 每个时间步的输入是当前单词的向量表示和前一时间步的隐状态, 在反向LSTM中, 每个时间步的输入是当前单词的向量表示和后一时间步的隐状态. 在每个时间步, LSTM单元根据当前输入和前一时间步的状态计算新的隐状态和核状态. 最终, 得到编码后文本信息.

给定一个序列t=(t1,t2,,tL), 双向LSTM网络最终得到ht, 其具体为:

ht=htht (13)

其中, htht分别表示从左往右和从右往左的LSTM计算得到的隐藏状态, 表示连接操作. 由于正向LSTM和反向LSTM的计算方式一致, 故此处只介绍正向LSTM. 正向 LSTM得到隐藏状态序列(h1,h2,,hT). 首先, 需要计算输入门的激活值it、遗忘门的激活值ft、输出门的激活值ot和细胞状态的更新值~Ct, 计算方式如下:

{ij=σ(Wtj+Uihj1+bi)fj=σ(Wftt+Ufhj1+bf)oj=σ(Wotj+Uohj1+bo)˜Cj=tanh(Wctj+Uchj1+bc) (14)

其中, tj是输入序列中的j个元素, ht1是上一个时间步的隐状态, W,U,b是可训练的参数, σ是Sigmoid函数, tanh是双曲正切函数. 接下来, 需要根据输入门、遗忘门和细胞状态的更新值, 计算新的细胞状态Cj和输出hj, 计算方式如下:

{Cj=fjCj1+ij~Cjhj=ojtanh(Cj) (15)

其中, 表示哈达玛积(Hadamard product).

本文的文本编码器模型参数具体设置为: 隐藏状态特征数量为256 (句子的文本编码维度数为256), 单词的特征长度为18, 参数drop_prob设置为0.5. 最终输出的句子特征与单词特征, 分别记为ˉeR256eR265×18. e的第iei是第i个词的特征向量.

3.2 条件语义增强

在第3节提及到, 本文发现生成的中间掩码不完整, 甚至与文本描述不符合. 通过大量的研究发现, 文本嵌入是以非线性的形式转换为生成条件的潜在变量, 但嵌入特征表示是高维的(通常其维度都是大于100). 造成潜在的语义空间不连续, 从而生成器生成的图像效果并不理想. 受StackGAN++[28]中文本特征多次采样的条件增强思想启发, 为了使得语义空间分布更加稠密, 本文提出了条件语义增强(conditional semantic augmentation, CSA).

具体说来, 文本描述t首先经过文本编码, 得到文本稠密的特征表示ϕt. 在传统的批量归一化的基础上引入了一个新的变量ˆc作为条件约束. 一些工作, 诸如在文本引导图像修复[11,27]和文本到图像生成任务[16,20], 都采用了将文本编码后直接固定特征, 并没有充分利用信息. 与这些工作处理文本编码的方式不同, 本文将文本嵌入得到相应的特征表示ϕt后进行随机采样得到ˆc. 具体体现为从一个独立的高斯分布N(μ(ϕt),(ϕt))进行随机采样, 其中平均值μ(ϕt)和对角协方差矩阵均是在文本嵌入表示ϕt上计算得到的.

上述的条件语义增强在给定少量的文本图像数据对的情况下能提供更多的增强数据, 从而提高生成器对于语义空间流形上小扰动的鲁棒性, 提高了模型的性能. 为了进一步增强语义空间流形的连续性, 同时为了避免模型过拟合的情况发生, 在目标函数中增加了一项在模型训练时针对生成器的正则化. 具体说来, 本文采用KL散度(Kullback-Leibler divergence)衡量采样分布和语义空间的相似性:

DKL(N(μ(ϕt),(ϕt))||N(0,I)) (16)

其中, N(0,I)为采样分布, N(μ(ϕt),(ϕt)为语义空间分布. 条件语义增强引入细微语义扰动, 从而学习更加稳健鲁棒, 语义更加丰富, 能够生成不同外观和姿态的图像, 而不是仅重复生成同一种图像.

3.3 掩码生成

为了更好地适配文本语义和生成图像的空间, 本文将条件语义增强后的文本和生成的掩码进行融合. 本模块将图像空间特征粗略生成轮廓, 即掩码, 用以指导后续语义理解和精细生成, 如语义颜色, 主体边缘分布等. 本文设计了一个简单的两层CNN结构(主要包括了卷积层, 批量归一化层, 激活层等), 生成所需要的语义掩码. 具体说来, 获得中间语义特征后, 使用上采样, 得到与最终生成图像相同尺寸的掩码. 将粗略的掩码映射到图像特征空间得到掩码图mi, 其中mi的每个元素mi,(h,w)的取值范围在[0, 1]之间. 掩码图是基于当前生成的语义特征图进行预测的, 因此直观地引导了当前图像特征图中哪些部分仍需要用文本信息加强. 掩码预测器与整个网络一起训练, 没有特定的损失函数来指导其学习过程, 也没有额外的掩码引导, 因此该模块并不需要额外的计算资源.

3.4 空间-语义融合

为了更加充分融合图像空间特征和文本语义, 提高模型的细节表达能力, 本文提出了空间-语义融合(spatial-semantic fusion, SSF)模块. 受CBN引入条件的思想启发, 本文将图像空间特征作为条件, 融合图像空间特征和文本语义. 下面将予以具体介绍.

批量归一化是一种常用的神经网络优化技术, 其作用是对神经网络的输入进行标准化, 以减少内部协变量移位(internal covariate shift)并加快网络训练. 在深度神经网络中, 不同层之间的输入分布随着网络的训练而不断变化, 导致神经网络学习速度变慢、难以收敛. 批量归一化(batch normalization, BN)可以通过在每个mini-batch的数据上进行标准化, 使得不同层之间的输入分布更加稳定, 从而加快神经网络的训练速度. 具体来说, 对于每个mini-batch的输入x=x1,x2,,xm, BN通过以下方式标准化:

ˆxi=xiμBσ2B+ϵ (17)

其中, μBσB分别是输入的均值和标准差, ϵ是非常小的数. 接着, BN对标准化后的输入进行线性变换:

˜xi=γˆxi+β (18)

其中, γβ是可学习的缩放因子和平移因子, 分别用来恢复数据的原始分布. 在测试时, 这两个参数γβ是固定的. 除了通过训练数据获得固定的γβ, Dumoulin等人[20]提出了条件批量归一化: 在BN的基础上, 引入了条件信息, 以实现对不同类别或不同样式的数据进行更好的归一化处理. 在传统的BN中, 对于每个批次的数据, 都会将其归一化为均值为0, 方差为1的标准正态分布. CBN的实现方式可以是将条件向量c和BN的输出拼接在一起, 然后通过一个全连接层来学习条件对归一化的影响从而更加灵活地控制归一化的过程. CBN的优点在于, 它可以更好地适应不同类别或不同样式的数据, 从而提高模型的泛化能力和鲁棒性. 具体说来, CBN是通过学习模态参数得到γβ, 并根据给定条件进行自适应仿射变换. CBN可以表示为:

˜xi=γmlpˆxi+βmlp (19)

其中, γmlpβmlp都是在文本特征上通过多层感知器学习而得到的:

γmlp=MLPγ(ˉe),βmlp=MLPβ(ˉe) (20)

第3.3节介绍了本模型提取的预测掩码. 如果没有信息引导, 网络将无差别地对待所有像素, 从而在某些生成细节上效果不好. 于是本文引入了条件语义增强以生成更多的图像文本对:

˜xi=m(x,y)(MLPγ(ˉe)+MLPβ(ˉe)),(x,y)(h,w) (21)

其中, m(x,y)表示预测掩码(x,y)对应的值. 这种方法决定了在哪些区域添加文本信息, 以及需要进行文本于语义信息加强的强度, 模型采样更多, 使得图像的文本语义空间数据流形更连续, 分布更加稠密. 从而生成的特征图和条件文本更加符合要求, 获得更好的生成图像效果. 针对细节表达不足的问题, 在最终生成时用了残差结构 (图3G0), 以补充生成图像的细节. 具体说来, 在进行语义-空间融合后, 为了使模型更加注重语义细节的表达, 本文将条件语义增强后进行生成并与空间语义融合后的生成进行加权连接, 以使注重生成细节的表达.

3.5 目标函数

为了使得生成的图像与真实图像更加相似, 本文使用了匹配感知的零中心梯度惩罚(matching-aware gradient penalty, MA-GP). 该方法旨在提高模型的稳定性和生成质量. 其主要惩罚生成器网络的梯度, 并使用了特殊的距离度量方式以度量真实图像和生成图像的特征分. 具体为:

GPc=EˆxPˆx[(||ˆxDc(ˆx)||21)2] (22)

其中, Dc是针对条件c的鉴别器, ˆx是条件c下的随机插值, Pˆx是插值的概率分布, GPc表示对应于条件c的梯度惩罚. 通过对所有条件c的梯度惩罚求和, 得到 MA-GP:

LMA-GP=cwcGPc (23)

其中, wc是条件c的权重, 根据条件的重要性进行调整.

此外, 模型将从生成图像和编码文本向量中提取的特征连接起来, 通过两个卷积层计算对抗损失, 鉴别器采用了单向模式[17], 将二者结合提高文本图像语义一致性. 对于鉴别器来说其损失函数如下:

LDadv=Expdata[max(0,1D(x,t))]+0.5ExpG[max(0,1+D(ˆx,t))]+0.5Expdata[max(0,1+D(x,ˆt))]+λ1LMA-GP+λ2DKL (24)

其中, x为真实图像, t为其对应的文本描述, ˆt为对应描述之外的描述即不匹配的文本描述, ˆx为模型生成的图像, λ1λ2为需要学习的超参数, D(,)判定文本和图像是否匹配. 具体做法为, 将文本和图像特征映射到同一语义空间, 通过感知器得到最终输出.

为了使得模型生成的文本特征具有视觉辨析力, 本文使用了深层注意力多模态相似模型损失LDAMSM. 则生成器的损失函数为:

L=ExpG[D(ˆx,t)]+λ3LDAMSM (25)

其中, LDAMSM为公式(12)描述的损失函数(其中m设置为768, n设置为289), λ3为超参数.

4 实验分析 4.1 实验数据及相关参数介绍

本文的实验选择了CUB birds数据集和COCO数据集. CUB birds (lltech-UCSD Birds-200-2011) 数据集是专门为鸟类图像识别和检测研究而设计的数据集[29]. 由美国加州理工学院(Caltech)和加州大学圣地亚哥分校(UCSD)联合创建. 该数据集涵盖了200个不同鸟类的11 788张图像, 每张图像都有丰富的注释信息, 如鸟类名称、外貌特征和生态习性等. 该数据集适用于各种鸟类图像识别和检测任务, 如图像分类、图像检索、图像生成等. 其优势在于鸟类种类多样, 且每种鸟类的图像都有细致的注释信息, 这为研究者提供了更多的可能性和空间来探索和研究图像识别和检测任务. COCO数据集中的每张图像都有对应的文本描述, 用于图像描述和文本到图像生成任务. 对于文本到图像生成任务, COCO数据集提供了每张图像的5个不同描述. 因此, 可以根据这些描述生成不同的图像, 实现多样化的图像生成.

本文的实验基于PyTorch框架完成. 模型选择优化器为Adam, 参数设置为(β1,β2)(0.00,0.09), 学习率设置为(lrG,lrD)(0.0002,0.0004), 其中, lrGlrD分别表示生成器和鉴别器的学习率. 超参数(λ1,λ2,λ3)(2,0.01,0.05). 批量大小设置为40, 在4块NVIDIA RTX 3090上进行试验. 同时, 针对两个不同的数据集, 本文设置了不同的训练批次, CUB birds设置为400, COCO数据集设置为200.

4.2 定量分析

对于实验分析的定量指标, 本文选择了IS (inception score) 和FID, 并选择DF-GAN[12], AttnGAN[18], StackGAN++[28], SD-GAN[22], DM-GAN[14], ControlGAN[21], SSA-GAN[13]作为基准模型. IS指标是基于在ImageNet数据集上预训练的Inception模型的输出概率分布, 用于衡量生成图像真实度, 而FID指标则是通过计算生成图像与真实图像在特征空间中的距离, 来评估生成图像与真实图像之间的差异性. FID指标越小表示生成的图像质量越好. 相关工作[30]指出, FID指标考虑了生成图像的多样性和生成质量, IS则注重于生成质量. IS计算如下:

ScoreIS=exp(ExpG[DKL(p(y|x)||p(y))]) (26)

其中, x代表生成模型生成的图像, y代表图像x的类别标签, p(y|x)表示给定x时, 真实数据集上的类别分布, 通常使用预训练的分类器来估计, p(y)表示真实数据集上的类别分布, 通常直接从训练数据中统计计算, DKL为KL散度, 表示x生成的类别分布与真实数据集上的类别分布之间的差异. FID计算如下:

ScoreFID=||μxμy||2+Tr(Σx+Σy2(ΣxΣy)1/2)) (27)

其中, μxμy分别表示真实数据集和生成数据集在Inception V3特征空间上的均值向量Σx, Σy分别表示真实数据集和生成数据集在Inception V3特征空间上的协方差矩阵. Tr表示矩阵的迹.

对于CUB birds数据集在划分测试集时选取了2932张图片以及对应的文本描述, 本节计算了本文模型与其他模型的IS和FID 指标(详情见表1). 从表中可以看出, 本文的模型在IS指标上取得了5.44, 在FID指标上取得了17.04. 即本文提出的模型比基线模型生成质量更佳, 多样性更优秀.

表 1 本文模型与同类工作在CUB birds数据集上定量指标对比

同样地, 得益于COCO相对大量的数据, 在划分测试集时选取了40469张图以及对应的文本描述. 本节也对比了本文模型与其他模型的FID 指标(具体数值可参见表2). 根据先前工作[12,13]的实验分析, IS分数并不能严格对应图像合成质量. 值得注意的是, 较高的IS分数通常并不意味着在某些包含许多物体概念的多样数据集 (例如COCO数据集)上具有更好的图像合成质量. 本文将这归因于IS分数对物体概念表达能力较差. 因此, 本文不在COCO数据集上计算IS分数. 从表2可以看到, 本文模型在FID指标上仍然是最优秀的. 综合表1表2来分析: 本文提出的模型在COCO数据集上和CUB birds数据集上得到的指标均优于其他基线模型/方法.

表 2 本文模型与同类工作在COCO数据集上定量指标对比

4.3 定性分析

生成任务除了第4.2节进行的定量指标的计算外, 可视化分析也是生成类分析的一个重要方面. 为此, 本文选取了近年来的几个最优模型(DF-GAN[12]、SSA-GAN[13])可视化结果后作为对比, 并分别在COCO 数据集上和CUB birds数据集上训练这些模型和本文模型, 得到了图4图5的可视化结果.

图 4 本文在CUB birds数据集生成结果与同类工作对比

图 5 本文在COCO数据集生成结果与同类工作对比

本文模型是为了解决现有模型不能很好地处理前景和背景交界处的视觉上不协调的问题. 该问题是生成类任务一个普遍且常见的问题. 为了解决该问题, 本文模型引入了条件语义增强这一模块更好地适配文本编码特征和生成结果之间的关系. 本文模型所展示的可视化的生成图像也能证实这一点. 图1所示的根据文本生成相应图像中, 第1行为本文模型测试的结果, 第2行为其他模型的测试结果. 图像中用红色的框较为明显地指出了本文模型在细节处的表现, 即在前景和背景的交界处细节体现更为清晰. 本文模型生成的鸟爪更具体, 而其他模型存在诸多问题. 如第2行第1列鸟爪附近区域显得很突兀, 还有难以描述的视觉特征. 第2行第2列图像中鸟爪和所站立的树枝颜色视觉特征几乎没有差别. 第2行第3列图像中鸟爪几乎没有鸟爪的特征. 这些说明其他模型在这些细节之处是存在问题的. 同样地, 在图5中本文模型生成的图像除了在颜色特征上表现优异外, 细节特征优势也是非常明显. 如第4列所示DF-GAN和SSA-GAN生成的钟表均具有较大的形变, 甚至视觉扭曲. 同样地, 相对而言第2列中CSA-GAN生成长颈鹿具有完整的主体特征.

相对DF-GAN和SSA-GAN, 本文的模型产生的可视化图结果的细节表现得更好. 主要体现在主体和背景交融处显得更加自然和谐, 图4是在CUB birds上训练的模型, 图4中第1行是文本描述, 第2行、第3行分别是DF-GAN 和SSA-GAN 根据文本描述而生成的图像结果, 第4行为本文模型产生的结果. 文本的形式一般为“A/An/This + object + has/with + 颜色形容词 + 身体的具体某一部分”, 生成的图像是否符合要求的一个重要视觉特征就是符合对应的主体某一部分的颜色特征. 相对而言, 本文模型更加符合文本描述的特征, 例如第3列, 生成颜色为白色和红色有非常短的喙的鸟. SSA-GAN生成的颜色更偏白色和橙色而不是白色和红色. 从颜色这一特征需求而言, 本文所提出的模型更加符合要求, 不难发现本文模型细节特征表现更优.

总体而言, 本节对本文所提出的模型和最近优秀模型在COCO和CUB birds数据集上的可视化结果进行了对比. 与DF-GAN和SSA-GAN相比, 本文提出的模型在细节表现方面更优秀, 更加符合文本描述的特征. 本文模型在设计时引入了条件语义增强这一模块更好地适配文本编码特征和生成结果之间的关系, 解决了前景和背景交界处视觉上不和谐问题. 通过生成的图像可以证实, 本文模型在细节处的表现更佳, 生成图像更加真实自然.

4.4 消融实验

为了充分探讨不同模块在本文模型中的贡献, 本文分别针对几个模块做了消融实验, 包括文本使用的CSA, 上文介绍的DAMSM和SSF. 首先是定量分析, CSA-GAN是本文模型所提出的完整模型, CSA 是条件语义增强, DAMSM是用来提高生成图像的质量和多样性的模块. 本文分别针对网络架构中的几个重要模块在COCO和CUB birds 数据集上进行了实验. 具体结果如表3所示, 选取了与定量实验分析一样的指标. 从表3中数据分析, CSA在FID和IS上有着贡献.

表 3 不同模块对模型的贡献

表3从定量的指标分析了不同的模块在模型中的贡献. 其中, 在COCO数据集上FID提升较为明显, 为了探索CSA为了模型提供的更多的特征信息, 同时为了验证CSA在给定少量的文本图像数据对的情况下能提供更多的训练数据对, 本文将生成的掩码进行了可视化, 同时使用了CAM算法可视化了更加关注的区域. 在CUB birds数据集和COCO数据集上可视化结果如图6所示, 从左到右依次为文本描述、生成的掩码图、注意力显著图、生成结果图, 从中可以看出本文模型可视化结果关注的更多的部分以区域的形式出现, 其关注的区域相比SSA-GAN[18]更多, 此外, 生成的掩码的场景更加完善, 由此, 生成的效果更加优秀.

图 6 本文模型生成掩码与SSA-GAN对比

为了进一步验证CSA在模型中的作用, 以及CSA所对应的生成器G0的作用. 本节设计将本文模型生成的掩码输入到同类工作模型SSA-GAN, 并进行了定量指标的计算, 其结果如表4所示. 在使用本文模型生成的掩码输入到SSA-GAN得到的结果与本文差异异常小, 侧面印证了本文生成的中间掩码会正向引导最终的生成图像.

表 4 针对CSA的消融实验

表4中可以得出: 本文所使用条件语义增强能够提供更多的信息特征, 生成图像的效果更好. 从表4中第3, 4行得到的数据表明, 生成mask接入到相关工作中, 生成的结果也比原模型的结果指标高很多, 其中SSA-GAN w/ fixed mask代表将本文生成的掩码放入到SSA-GAN用于生成新的图像. 图6可以直观地观察到生成的掩码更加完整, 模型关注的区域更多, 说明条件语义空间分布更稠密, 数据流形更连续. 图6表4证明, 本文模型CSA-GAN生成更完整的掩码, 引导后续语义的学习, 进行更精细的生成, 从而最终的生成图像质量更加优秀, 主体细节表达更充分.

5 总 结

为了解决文本到图像生成中细节特征表达不足的问题, 诸如生成的图像在某些细节场景上表现突兀, 本文提出了CSA-GAN, 通过在文本编码基础上, 对其进行条件语义增强, 并结合残差结构的语义空间融合进行图像生成. 实验结果表明, 本文模型与近年来的几个最优模型相比, 在生成图像的质量和细节处理方面均表现最优. 在定量分析中本文模型的指标FID和IS均高于同类工作, 定性分析的细节表达也更充分. 此外, 本文还进行了消融实验, 从定量和定性两个方面对模块的有效性进行了论证. 其中定量方面主要计算了评价指标, 定性方面主要包括模型在细节特征(主要体现在颜色方面)表达和生成图像在主体特征上的优化(对比了和同类工作的细节, 如鸟爪的特征). 结果表明: 本文的模型在这两个方面均表现更优, 生成的图像质量更高.

参考文献
[1]
Goodfellow IJ, Pouget-Abadie J, Mirza M, Xu B, Warde-Farley D, Ozair S, Courville A, Bengio Y. Generative adversarial nets. In: Proc. of the 27th Int’l Conf. on Neural Information Processing Systems. Montreal: ACM, 2014. 2672–2680. [doi: 10.5555/2969033.2969125]
[2]
Chen XY, Xu C, Yang XK, Tao DC. Attention-GAN for object transfiguration in wild images. In: Proc. of the 15th European Conf. on Computer Vision. Munich: Springer, 2018. 164–180. [doi: 10.1007/978-3-030-01216-8_11]
[3]
Chen Z, Luo YD. Cycle-consistent diverse image synthesis from natural language. In: Proc. of the 2019 IEEE Int’l Conf. on Multimedia & Expo Workshops. Shanghai: IEEE, 2019. 459–464. [doi: 10.1109/ICMEW.2019.00085]
[4]
Xu XZ, Chang JY, Ding SF. Image style transfering based on StarGAN and class encoder. Ruan Jian Xue Bao/Journal of Software, 2022, 33(4): 1516-1526(in Chinese with English abstract). [doi:10.13328/j.cnki.jos.006482]
[5]
Xie B, Wang N, Fan YW. Correlation alignment total variation model and algorithm for style transfer. Journal of Image and Graphics, 2020, 25(2): 241-254(in Chinese with English abstract). [doi:10.11834/jig.190199]
[6]
Cheng MM, Liu XC, Wang J, Lu SP, Lai YK, Rosin PL. Structure-preserving neural style transfer. IEEE Trans. on Image Processing, 2019, 29: 909-920. [doi:10.1109/TIP.2019.2936746]
[7]
Liu MY, Breuel T, Kautz J. Unsupervised image-to-image translation networks. In: Proc. of the 31st Conf. on Neural Information Processing Systems. Long Beach: NIPS, 2017. 700–708.
[8]
Li ZL, Zhang SP, Liu Y, Zhang ZX, Zhang WG, Huang QM. Text-driven face image generation and manipulation via multi-level residual mapper. Ruan Jian Xue Bao/Journal of Software, 2023, 34(5): 2101-2115(in Chinese with English abstract). [doi:10.13328/j.cnki.jos.006767]
[9]
Du PF, Li XY, Gao YL. Survey on multimodal visual language representation learning. Ruan Jian Xue Bao/Journal of Software, 2021, 32(2): 327-348(in Chinese with English abstract). [doi:10.13328/j.cnki.jos.006125]
[10]
Wu FX, Cheng J. Configurable text-based image editing by autoencoder-based generative adversarial networks. Ruan Jian Xue Bao/Journal of Software, 2022, 33(9): 3139-3151(in Chinese with English abstract). [doi:10.13328/j.cnki.jos.006622]
[11]
Yu JH, Lin Z, Yang JM, Shen XH, Lu X, Huang TS. Generative image inpainting with contextual attention. In: Proc. of the 2018 IEEE/CVF Conf. on Computer Vision and Pattern Recognition. Salt Lake City: IEEE, 2018. 5505–5514. [doi: 10.1109/CVPR. 2018.00577]
[12]
Tao M, Tang H, Wu F, Jing XY, Bao BK, Xu CS. DF-GAN: A simple and effective baseline for text-to-image synthesis. In: Proc. of the 2022 IEEE/CVF Conf. on Computer Vision and Pattern Recognition. New Orleans: IEEE, 2022. 16494–16504. [doi: 10.1109/ CVPR52688.2022.01602]
[13]
Liao WT, Hu K, Yang MY, Rosenhahn B. Text to image generation with semantic-spatial aware GAN. In: Proc. of the 2022 IEEE/CVF Conf. on Computer Vision and Pattern Recognition. New Orleans: IEEE, 2022. 18166–18175. [doi: 10.1109/CVPR52688.2022.01765]
[14]
Zhu MF, Pan PB, Chen W, Yang Y. DM-GAN: Dynamic memory generative adversarial networks for text-to-image synthesis. In: Proc. of the 2019 IEEE/CVF Conf. on Computer Vision and Pattern Recognition. Long Beach: IEEE, 2019. 5795–5803. [doi: 10.1109/ CVPR.2019.00595]
[15]
Reed S, Akata Z, Yan XC, Logeswaran L, Schiele B, Lee H. Generative adversarial text to image synthesis. In: Proc. of the 33rd Int’l Conf. on Machine Learning. New York: JMLR.org, 2016. 1060–1069. [doi: 10.5555/3045390.3045503]
[16]
Zhang H, Xu T, Li HS, Zhang ST, Wang XG, Huang XL, Metaxas D. StackGAN: Text to photo-realistic image synthesis with stacked generative adversarial networks. In: Proc. of the 2017 IEEE Int’l Conf. on Computer Vision. Venice: IEEE, 2017. 5908–5916. [doi: 10.1109/ICCV.2017.629]
[17]
Stap D, Bleeker M, Ibrahimi S, ter Hoeve M. Conditional image generation and manipulation for user-specified content. arXiv:2005.04909, 2020.
[18]
Xu T, Zhang PC, Huang QY, Zhang H, Gan Z, Huang XL, He XD. AttnGAN: Fine-grained text to image generation with attentional generative adversarial networks. In: Proc. of the 2018 IEEE/CVF Conf. on Computer Vision and Pattern Recognition. Salt Lake City: IEEE, 2018. 1316–1324. [doi: 10.1109/CVPR.2018.00143]
[19]
Huang WM, da Xu RY, Oppermann I. Realistic image generation using region-phrase attention. In: Proc. of the 11th Asian Conf. on Machine Learning. Nagoya: PMLR, 2019. 284–299.
[20]
Dumoulin V, Shlens J, Kudlur M. A learned representation for artistic style. In: Proc. of the 5th Int’l Conf. on Learning Representations. Toulon: OpenReview.net, 2017. 101–107.
[21]
Li BW, Qi XJ, Lukasiewicz T, Torr PHS. Controllable text-to-image generation. In: Proc. of the 33rd Conf. on Neural Information Processing Systems. Vancouver: NeurIPS, 2019. 1–7.
[22]
Yin GJ, Liu B, Sheng L, Yu NH, Wang XG, Shao J. Semantics disentangling for text-to-image generation. In: Proc. of the 2019 IEEE/CVF Conf. on Computer Vision and Pattern Recognition. Long Beach: IEEE, 2019. 2322–2331. [doi: 10.1109/CVPR.2019.00243]
[23]
Von Neumann J, Morgenstern O. Theory of Games and Economic Behavior. Princeton University Press, 1944. 20–60.
[24]
Schelling TC. The Strategy of Conflict. Cambridge: Harvard University Press, 1960. 1–50.
[25]
Arjovsky M, Chintala S, Bottou L. Wasserstein generative adversarial networks. In: Proc. of the 34th Int’l Conf. on Machine Learning. Sydney: JMLR.org, 2017. 214–223. [doi: 10.5555/3305381.3305404]
[26]
Mao XD, Li Q, Xie HR, Lau RYK, Wang Z, Smolley SP. Least squares generative adversarial networks. In: Proc. of the 2017 IEEE Int’l Conf. on Computer Vision. Venice: IEEE, 2017. 2813–2821. [doi: 10.1109/ICCV.2017.304]
[27]
Chen K, Choy CB, Savva M, Chang AX, Funkhouser T, Savarese S. Text2Shape: Generating shapes from natural language by learning joint embeddings. In: Proc. of the 14th Asian Conf. on Computer Vision. Perth: Springer, 2019. 100–116. [doi: 10.1007/978-3-030-20893-6_7]
[28]
Zhang H, Xu T, Li HS, Zhang ST, Wang XG, Huang XL, Metaxas DN. StackGAN++: Realistic image synthesis with stacked generative adversarial networks. IEEE Trans. on Pattern Analysis and Machine Intelligence, 2019, 41(8): 1947-1962. [doi:10.1109/TPAMI.2018.2856256]
[29]
Lin TY, Maire M, Belongie S, Hays J, Perona P, Ramanan D, Dollár P, Zitnick CL. Microsoft COCO: Common objects in context. In: Proc. of the 13th European Conf. on Computer Vision. Zurich: Springer, 2014. 740–755. [doi: 10.1007/978-3-319-10602-1_48]
[30]
Frolov S, Hinz T, Raue F, Hees J, Dengel A. Adversarial text-to-image synthesis: A review. Neural Networks, 2021, 144: 187-209. [doi:10.1016/j.neunet.2021.07.019]
[4]
许新征, 常建英, 丁世飞. 基于StarGAN和类别编码器的图像风格转换. 软件学报, 2022, 33(4): 1516-1526. [doi:10.13328/j.cnki.jos.006482]
[5]
谢斌, 汪宁, 范有伟. 相关对齐的总变分风格迁移新模型. 中国图象图形学报, 2020, 25(2): 241-254. [doi:10.11834/jig.190199]
[8]
李宗霖, 张盛平, 刘杨, 张兆心, 张维刚, 黄庆明. 基于多级残差映射器的文本驱动人脸图像生成和编辑. 软件学报, 2023, 34(5): 2101-2115. [doi:10.13328/j.cnki.jos.006767]
[9]
杜鹏飞, 李小勇, 高雅丽. 多模态视觉语言表征学习研究综述. 软件学报, 2021, 32(2): 327-348. [doi:10.13328/j.cnki.jos.006125]
[10]
吴福祥, 程俊. 基于自编码器生成对抗网络的可配置文本图像编辑. 软件学报, 2022, 33(9): 3139-3151. [doi:10.13328/j.cnki.jos.006622]
基于条件语义增强的文本到图像生成
余凯, 宾燚, 郑自强 , 杨阳