与人类利用视觉、听觉、触觉等多种感官信息来感知世界相似,计算机智能系统也可通过不同的传感器,如摄像头、雷达、麦克风、触觉传感器等,来获取人类和物理世界中的数据与信息。神经学家的研究表明多通道的感官刺激对人类感知可能会产生整体大于个体之和的作用。心理学家也从不同角度提出了人类利用多模态信息感知、认知世界的假设与理论框架,而在人工智能领域,多模态协同感知还缺乏基础的理论学习框架。随着智能终端和多模态传感设备的普及,可用于感知世界的数据来源、维度和数据量都在快速增长,单独模态数据所提供的信息已经不能满足智能系统感知与理解世界能力的需求。因此智能系统在感知世界时,需要从更多模态数据的差异化获取、动态适配、互补融合、协同感知等角度开展深入研究,这是多媒体领域的一个非常重要和具有挑战性的问题。
早期的多模态学习主要体现在视觉、文本模态在特征表示与感知结果等层面的融合。近年来,随着研究的不断深入,多模态协同与融合技术根据不同应用场景需求可从不同维度和视角开展研究,包括从底层数据对齐到高层语义融合,从多特征联合表示到多任务协同学习。因此,本专刊旨在促进最新的多模态特征表示、适配对齐、自适应融合、协同学习等相关理论与方法的研究。
为了促进多模态协同感知技术的研究发展,实现多模态在不同任务和场景下的有机融合,在由中国计算机学会(CCF)和中国图象图形学学会(CSIG)主办,CCF多媒体专业委员会和CSIG多媒体技术专业委员会承办的“2023年中国多媒体技术大会(ChinaMM2023)”中特别设立“软件学报:多模态协同感知与融合技术”专题,专刊将在2024年第5期出版,读者群体包括多媒体、计算机视觉、人机交互等多个领域的研究人员和工程人员。
专刊题目:多模态协同感知与融合技术
特约编辑:孙立峰(清华大学)宋新航(中国科学院计算技术研究所)蒋树强(中国科学院计算技术研究所)王莉莉(北京航空航天大学)申恒涛(电子科技大学)
出版时间:2024年第5期
一、征文范围
包括但不限于以下主题:
(1) 多模态智能融合与协同学习
(2) 多模态场景识别、目标检测与分割
(3) 多模态数据交互生成
(4) 异构模态数据适配、对齐与融合
(5) 多模态智能问答
(6) 多模态知识图谱构建与应用
(7) 多模态智能人机交互与融合计算
(8) 跨模态迁移学习与零\少样本泛化学习
(9) 多模态医疗影像配准与融合
(10) 具身智能中的多模态协同感知
(11) 多模态协同感知的基础理论与机理性解释分析
(12) 多模态协同的情感计算与心理健康分析
二、投稿要求
1. 投稿方式:采用“软件学报在线投稿系统”(http://www.jos.org.cn)投稿。投稿时请选择投稿类型为“专刊投稿”,并在备注栏中注明“多模态协同感知与融合技术”字样。
2. 稿件格式:参照《软件学报》论文格式(网站上提供了论文模版,可下载)。
3. 投稿文章未在正式出版物上发表过,也不在其他刊物或会议的审稿过程中,不存在一稿多投现象;保证投稿文章的合法性(无抄袭、剽窃、侵权等不良行为)。
4. 其他事项请参阅投稿指南http://www.jos.org.cn/ch/reader/view_fixed_content.aspx?id=instructions
5. 投稿作者需提交投稿声明;专刊投稿文章不收审理费。录用刊发文章收取软件学报标准版面费。发表之后,将按软件学报标准支付稿酬,并赠送样刊。
6. 通过第一轮评审的论文作者,需在ChinaMM2023上做学术报告,根据论文修改情况和会议报告情况终审确定是否录用。
三、重要时间
收稿截稿时间:2023年4月10日
第一轮评审意见通知时间:2023年7月3日
提交修改稿时间:2023年7月18日
ChinaMM会议时间:2023年8月2日
最终结果通知时间:2023年8月22日
出版时间:2024年第5期