摘要:开放世界持续学习(OWCL)旨在模拟现实环境中任务不断演化、类别动态变化且遇到未经训练的未知样本的情景. 一个良好的开放世界持续学习模型不仅需要在学习新任务的同时保持对已学任务的记忆, 还需具备识别未知类别的能力, 进而实现持续且鲁棒的知识积累与泛化. 然而, 现有持续学习方法普遍建立在封闭世界假设之上, 无法有效应对开放类别带来的类别不确定性与任务间干扰, 尤其在知识稳定性与知识可塑性之间的权衡上表现出明显不足. 因此, 在开放世界持续学习问题的形式化定义基础上, 提出一种任务敏感提示驱动的混合专家模型TP-MoE (task-aware prompt-driven mixture of experts), 以实现对任务语义的动态建模与专家模块的高效调度, 从而帮助模型进行知识传输和知识更新. 具体而言, TP-MoE引入一种即插即用的任务提示聚合机制并改进门控机制用以专家网络路由, 在任务增量过程中持续融合历史与当前任务知识; 同时结合一种自适应开放边界阈值策略, 可根据新旧知识的迁移动态调整开放类别的判别边界, 从而提升开放类别检测能力与已知类别分类准确性. 实验结果表明, TP-MoE在Split-CIFAR100和Open-CORe50基准数据集上对各类指标的测试均取得领先性能, 展现出良好的稳健性与泛化性, 开放世界持续学习任务中的知识建模与任务调度提供了一种可扩展、可迁移的新框架.