软件学报专刊征文: 融合预训练技术的多模态学习研究(截稿时间:2022年4月18日)
  • 分享:
  • 0

《软件学报》融合预训练技术的多模态学习研究
征文通知

近年来,随着智能终端和多媒体设备的普及,海量的多媒体数据涌现在互联网上。为更好地理解和分析这些多媒体数据,多模态学习逐渐吸引了国内外相关学者的广泛关注。特别地,深度学习凭借其优秀的数据表征能力,已经成为多模态学习的主要技术之一。然而,现有的有标注数据集的规模难以保证参数量大的深度学习模型的泛化能力,这成为制约多模态学习发展的重要瓶颈。

为此,国内外相关学者开始将目光转向预训练技术,即预先利用自监督学习对大量无标注的多模态数据之间的语义关系进行挖掘,以学习多模态数据的通用表示,继而增强下游任务模型对数据的分析和理解能力。虽然现有借助预训练技术的多模态学习工作已经取得了初步成功,但是这些工作仍然面临两个重要挑战:1) 如何充分利用预训练模型强大的数据表征能力,解决多模态学习领域研究相关的痛点、难点问题;2) 如何利用多模态学习领域丰富的理论积淀,促进预训练相关技术的发展。

为了更加有效地将多模态学习技术与预训练技术相结合,实现多模态学习技术和预训练技术的相辅相成,促进多模态学习领域的研究发展,由中国图象图形学学会(CSIG)和中国计算机学会(CCF)主办, CSIG多媒体专业委员会和CCF多媒体技术专业委员会承办的“2022年中国多媒体技术大会(ChinaMM2022)”中特别设立软件学报:融合预训练技术的多模态学习研究专题,旨在发展最新的多模态预训练、多模态学习等相关理论与方法。

专刊题目:融合预训练技术的多模态学习研究
特约编辑:宋雪萌(山东大学) 聂礼强(山东大学) 申恒涛(电子科技大学) 田奇(华为技术有限公司) 黄华(北京师范大学)
出版时间:2023年第5

一、征文范围
包括但不限于以下主题:
1)面向多模态学习的大规模预训练数据集构建

2)面向多模态学习的预训练模型与算法

3)面向多模态学习的预训练模型压缩与迁移

4)面向多模态学习的预训练模型可解释性和可靠性分析

5)面向特定任务、领域的多模态学习与预训练模型

6)融合预训练技术的多模态表示学习

7)融合预训练技术的多模态融合与分析

8)融合预训练技术的多模态检索与推荐

9)融合预训练技术的多模态内容理解与生成

二、投稿要求
1. 投稿方式:采用软件学报在线投稿系统”(http://www.jos.org.cn)投稿。投稿时请选择投稿类型为专刊投稿,并在备注栏中注明多模态学习研究字样。
2. 稿件格式:参照《软件学报》论文格式(网站上提供了论文模版,可下载)
3. 投稿文章未在正式出版物上发表过,也不在其他刊物或会议的审稿过程中,不存在一稿多投现象;保证投稿文章的合法性(无抄袭、剽窃、侵权等不良行为)
4. 其他事项请参阅投稿指南http://www.jos.org.cn/ch/reader/view_fixed_content.aspx?id=instructions
5.
投稿作者需提交投稿声明;专刊投稿文章不收审理费。录用刊发文章收取软件学报标准版面费。发表之后,将按软件学报标准支付稿酬,并赠送样刊。
6. 通过第一轮评审的预录用论文的作者,需在ChinaMM2022上做学术报告。特约编辑和编辑部将根据作者到会报告和稿件修改情况确定最终录用结果。

三、重要时间
收稿截稿日期:2022418

第一轮评审意见通知时间:2022615

提交修改稿时间:2022630

ChinaMM2022报告日期:2022720-22

终审结果发出日期:2022730

最终稿提交日期:2022815

出版时间:2023年第5

发布日期:2021-12-22浏览次数:

当期目录


文章目录

过刊浏览

年份

刊期

联系方式
  • 《软件学报 》
  • 主办单位:中国科学院软件研究所
                     中国计算机学会
  • 邮编:100190
  • 电话:010-62562563
  • 电子邮箱:jos@iscas.ac.cn
  • 网址:https://www.jos.org.cn
  • 刊号:ISSN 1000-9825
  •           CN 11-2560/TP
  • 国内定价:70元
您是第位访问者
版权所有:中国科学院软件研究所 京ICP备05046678号-3
地址:北京市海淀区中关村南四街4号,邮政编码:100190
电话:010-62562563 传真:010-62562533 Email:jos@iscas.ac.cn
技术支持:北京勤云科技发展有限公司

京公网安备 11040202500063号