软件学报专刊征文:具身推理与多模态世界模型(截稿时间:2026年4月27日)
  • 分享:

具身智能被视为人工智能发展的下一代核心范式,其核心要义在于使智能体能够融入物理环境,通过主动感知、逻辑推理与执行反馈的闭环的方式完成复杂任务。认知科学研究表明,人类智能的形成与发展根植于“感知-行动”的持续循环,人脑通过构建内部世界模型模拟行为后果,进而指导高阶决策与行为规划。因此,借鉴具身认知机理,构建可融合多模态信息的世界模型,实现高效、可泛化的具身推理,已成为迈向通用人工智能的关键路径与核心突破口。


世界模型是智能体理解环境动态、预测未来状态的核心认知架构。当前,大语言模型与多模态模型已展现出对数字世界的深刻理解,然而如何将此类能力迁移至受物理规律约束的真实世界,构建具备物理常识与因果推理能力的“具身大脑”,已成为人工智能领域的前沿挑战与热点。
为凝聚学术共识、推动前沿探索,本专刊特聚焦于“具身推理与多模态世界模型”这一交叉研究方向,诚挚欢迎来自相关领域的原创研究与综述论文,共同促进该方向的理论突破、算法创新与应用落地。


经过第一轮评审的论文作者需要参加中国多媒体大会ChinaMM 2026会议并到会报告,之后特约编辑和编辑部根据复审情况和会议报告情况决定文章的最终结果,专刊将在2027年第5期出版。读者包括多媒体、无人系统、人工智能、人机交互等多个领域的研究人员和工程人员。


专刊题目:具身推理与多模态世界模型
特约编辑:孙立峰(清华大学)蒋树强(中国科学院计算技术研究所)姜育刚(复旦大学)洪日昌(合肥工业大学)俞俊(哈尔滨工业大学(深圳))黄庆明(中国科学院大学)
出版时间:2027年第5期


一、征文范围
包括但不限于以下主题:
(1)多模态感知与表征
(2)语言、视觉、动作等模态的对齐与融合
(3)世界模型的表示与学习
(4)基于世界模型的推理与规划
(5)具身基础模型
(6)空间智能
(7)机器人操作与导航
(8)仿真平台、数据与评测
(9)具身相关系统与应用


二、投稿要求
1. 投稿方式:采用“软件学报在线投稿系统”(http://www.jos.org.cn)投稿。投稿时请选择投稿类型为“专刊投稿”,并在备注栏中注明“具身推理与多模态世界模型”字样。
2. 稿件格式:参照《软件学报》论文格式(网站上提供了论文模版,可下载)。
3. 投稿文章未在正式出版物上发表过,也不在其他刊物或会议的审稿过程中,不存在一稿多投现象;保证投稿文章的合法性(无抄袭、剽窃、侵权等不良行为)。
4. 其他事项请参阅投稿指南:      http://www.jos.org.cn/ch/reader/view_fixed_content.aspx?id=instructions
5. 投稿作者需提交投稿声明;专刊投稿文章不收审理费。录用刊发文章收取软件学报标准版面费。发表之后,将按软件学报标准支付稿酬,并赠送样刊。
6. 通过第一轮评审的论文作者,需在ChinaMM2026上做学术报告,根据论文修改情况和会议报告情况终审确定是否录用。


三、重要时间
收稿截稿时间:2026年4月27日
第一轮评审意见通知时间:2026年6月29日
提交修改稿时间:2026年7月14日
ChinaMM2026报告日期:2026年7月30日-8月1日
终审结果发出日期:2026年8月20日
出版时间:2027年第5期

发布日期:2026-02-05浏览次数:

当期目录


文章目录

过刊浏览

年份

刊期

联系方式
  • 《软件学报 》
  • 主办单位:中国科学院软件研究所
                     中国计算机学会
  • 邮编:100190
  • 电话:010-62562563
  • 电子邮箱:jos@iscas.ac.cn
  • 网址:https://www.jos.org.cn
  • 刊号:ISSN 1000-9825
  •           CN 11-2560/TP
  • 国内定价:70元
您是第位访问者
版权所有:中国科学院软件研究所 京ICP备05046678号-3
地址:北京市海淀区中关村南四街4号,邮政编码:100190
电话:010-62562563 传真:010-62562533 Email:jos@iscas.ac.cn
技术支持:北京勤云科技发展有限公司

京公网安备 11040202500063号