新智元报道

编辑:桃子 好困

【新智元导读】一年一度AAAI 2025杰出论文开奖了!三篇杰出论文榜上有名,周志华带队论文斩获大奖。

AAAI 2025杰出论文出炉了!

今年共有3篇论文摘下杰出论文桂冠,其中一篇是南京大学周志华团队出品,另外两篇分别颁给了多伦多大学和波尔多大学等机构的学者。

作为AI领域A类顶会之一,AAAI从1979年起每年举办一次,今年是第39届年会,于2月25日-3月4日在美国费城举办。


今年,共收到12957篇有效投稿,接收3032篇,录用率为23.4%,其中Oral论文占比4.6%。和去年相较,并没有太大差异(录用率23.75%)。

同在今天,AAAI还公布了一份「AI研究未来」91页报告,覆盖了AI领域17大议题,包含了机器人、智能体等,成为全球AI研究的另一个风向标。

还有吴恩达亲临现场,发表了「人工智能、智能体和应用」最前沿的演讲。




接下来,一起看看今天获奖的三篇论文。

三篇杰出论文

题目:Efficient Rectification of Neuro-Symbolic Reasoning Inconsistencies by Abductive Reflection

作者:Wen-Chao Hu(胡文超), Wang-Zhou Dai(戴望州), Yuan Jiang(姜远), Zhi-Hua Zhou(周志华)

机构:南京大学


论文地址:https://arxiv.org/abs/2412.08457

在南大周志华团队带领这篇研究中,在神经-符号(NeSy)AI上取得了新的突破,即让AI像人类一样「反思」自己的错误。

神经-符号AI就像是人类双系统的认知过程,这个双系统也就是我们熟知的「思考,快与慢」一书中提出的原型。

一个是用神经网络模拟直觉型的系统1,另一个是用符号推理模拟分析型的系统2。

然而,对于复杂的学习目标,NeSy系统常常生成与领域知识不一致的输出,且这些错误很难被纠正。

人类厉害的一个地方在于,能够迅速发现直觉反应中的错误,并通过启动系统2的推理过程进行纠正。

受到人类认知反思能力的启发,南大团队提出了基于溯因学习(Abductive Learning,ABL)框架引入溯因式反思(ABL-Refl)来改进NeSy系统。


ABL-Refl利用领域知识在训练过程中构建反思向量,该向量能够在推理阶段标记神经网络输出中的潜在错误,并触发溯因推理机制来纠正这些错误,从而生成与领域知识一致的输出。

与之前的ABL实现相比,ABL-Refl效率显著提高。


实验结果表明,ABL-Refl在性能上超越了目前最先进的NeSy方法,不仅达到了出色的准确率,还减少了训练资源需求,提升了整体效率。

题目:Every Bit Helps: Achieving the Optimal Distortion with a Few Queries

作者:Soroush Ebadian, Nisarg Shah

机构:多伦多大学


论文地址:https://www.cs.toronto.edu/~nisarg/papers/value-queries.pdf

在多智能体系统中,有一项基本任务:如何将n个智能体合理地匹配到n个选项,比如资源或任务?

通常,这是通过获取智能体对选项的序数排序(而非其确切数值效用)来实现的。

虽然这简化了信息获取过程,但不完整的信息会导致效率低下,这可以通过一种称为「失真」的最坏情况度量来衡量。

最近的一系列研究表明,如果稍微多问智能体一些问题,获取少量关于基数效用(cardinal utility)的查询,可以显著改善失真程度。

其中来自英国埃塞克斯大学等机构的研究通过对每个智能体进行两次查询,实现了 的失真。

多伦多大学的研究人员,将如上实验的结果进行了推广,证明对于任何常数λ,通过对每个智能体进行λ次查询,可以实现 的失真,这在Peeking Behind the Ordinal Curtain: Improving Distortion via Cardinal Qeries给出的先前下界基础上是最优的。

此外,他们还将研究扩展到一般社会选择问题,即必须根据n个智能体的偏好从m个选项中选择一个。

结果表明,对于任何常数λ,通过每个智能体进行λ次查询,可以实现 的失真,这在先前结果的基础上也是最优的。

因此,对于这两个问题,最新研究解决了关于使用固定数量基数值查询可实现的最优失真的开放问题。

题目:Revelations: A Decidable Class of POMDPs with Omega-Regular Objectives

作者:Marius Belly, Nathanaël Fijalkow, Hugo Gimbert, Florian Horn, Guillermo Perez, Pierre Vandenhove

机构:波尔多大学,巴黎大学等


论文地址:https://arxiv.org/abs/2412.12063

部分可观察马尔可夫决策过程(POMDPs),是序列决策制定中处理不确定性的一个重要模型。

波尔多大学等机构在最新研究中,通过构建具有理论保证的算法,以确定智能体是否拥有能以概率1满足给定规范的策略。

这个被广泛研究的问题已被证明,即使对于非常简单的ω-正则目标也是不可判定的,主要原因在于对不确定事件进行推理的固有困难。

针对这一问题,作者引入了一种信息揭示机制,通过要求智能体几乎必然地最终能获得关于当前状态的完整信息,从而限制信息损失。


最新主要技术成果是为两类POMDP(称为弱揭示型和强揭示型)构建了精确算法。

重要的是,这些可判定的情况可以简化为对有限信念支撑马尔可夫决策过程的分析。这为大类POMDP提供了一个概念上简单且精确的算法解决方案。

AI社会影响专题

题目:DivShift: Exploring Domain-Specific Distribution Shifts in Large-Scale, Volunteer-Collected Biodiversity Datasets

作者:Elena Sierra, Teja Katterborn, Salim Soltani, Lauren Gillespie, Moisés Expósito-Alonso

机构:斯坦福大学,弗莱堡大学,米纳斯联邦大学,加州大学伯克利分校等


论文地址:https://arxiv.org/abs/2410.19816

大规模、由志愿者收集的社区识别自然世界图像数据集(如iNaturalist),已经使深度学习模型在植物物种的「细粒度视觉分类」方面取得了显著的性能提升。

然而,此类数据集往往是机会性采集的,缺乏结构化的采样策略。

这种依赖志愿者参与的数据收集过程固有的地理、时间、观察质量和社会经济偏差,正在阻碍这些模型被广泛应用于下游的生物多样性监测任务,尤其是在发展中国家和地区(全球南方)。


虽然这些偏差在生物多样性建模文献中已被广泛记录,但它们对深度学习模型造成的分布偏移影响尚未被严格量化。

在此,斯坦福大学等机构提出了多样性偏移(DivShift)框架,用于量化生物多样性领域特定分布偏移对深度学习模型性能的影响。

他们还创建了DivShift–西海岸植物(DivShift-WCP)数据集,这是一个精心策划的新数据集,包含北美西海岸近800万个iNaturalist植物观察记录,用于在受控的案例研究中诊断这些偏差的影响。

使用这个新数据集,通过对比计算机视觉模型在各种偏移条件下的性能,他们观察到这些偏差确实会影响模型在观察质量、空间位置和政治边界方面的表现。

有趣的是,作者还发现对于所有数据分区,模型的准确率都低于根据数据集自身偏移估计所预期的随机水平,这表明自然世界图像内部的结构特征提供了显著的泛化能力改进。

基于这些观察结果,研究人员为在自然世界图像生物多样性集合上训练计算机视觉模型提出了一系列建议。

参考资料:

https://aihub.org/2025/03/01/congratulations-to-the-aaai2025-outstanding-paper-award-winners/

ad1 webp
ad2 webp
ad1 webp
ad2 webp