摘要:元解释学习(Meta-interpretive Learning,MIL)是一种归纳逻辑程序设计(Inductive Logic Programming,ILP)方法,旨在从一组实例、元规则和其他背景知识中学习一个程序.MIL采用深度优先和失败驱动策略在程序空间中搜索适当的子句以生成程序.事实上,这种机制不可避免地引发了对相同目标重复证明的问题.在本文中,我们提出了一种剪枝策略,该策略利用Prolog内置的数据库机制来存储未能达成的目标及其对应的错误信息,从而有效避免冗余的证明过程.此后,这些累积的错误信息能够作为指导,帮助MIL系统在未来的学习过程中进行优化和调整.我们证明了剪枝算法的正确性,并在理论上计算了程序空间的缩减比例.我们将所提出的方法应用于两个现有的MIL系统Metagol和MetagolAI,从而产生了两个新的MIL系统MetagolF和MetagolAI_F.在四个不同任务上的实证结果表明,所提出的策略可以显著减少学习相同程序的时间消耗.