手机版

研究表明AI能独立自发组成社会

时间:2025-05-18 14:44:00

IT之家 5 月 18 日消息,伦敦大学城市学院与哥本哈根信息技术大学研究发现,当 AI 在没有外界参与的情况下,也可以自发地形成类似人类的社会习俗。

在实验中,科学家将目前全球流行的 AI 智能体置于一个去中心化的交流环境中,模拟人类社会的群体互动场景。他们将 AI 模型分成不同规模的小组,每组从 24 个到 200 个不等。

通过长时间的互动观察发现,这些 AI 模型能够自发地形成共同的行为约定和社会习俗,而这一切完全是在没有任何中央协调和预定义规则的情况下实现的。

相关研究成果已于 5 月 14 日发表在《Science Advances》杂志上(IT之家附 DOI: DOI: 10.1126/sciadv.adu9368)。

主要作者、伦敦大学城市学院博士研究员阿里尔・弗林特・阿舍里(Ariel Flint Ashery)指出:“现有研究大多孤立考察单个 LLM 智能体,但现实中的 AI 系统将日益涉及多方互动。我们的实验证明这些模型能够通过形成约定实现行为协调,这种群体性特征无法从个体行为中推导得出。”

研究团队发现 AI 群体的行为扩散过程与人类社会的语言演变存在相似性。“智能体并非照搬领导者行为”,另一位作者、复杂系统科学教授安德里亚・巴隆切利(Andrea Baronchelli)解释道。

在实验中,随机配对的 AI 智能体需从候选池中选择相同“名称”(字母或字符串)才能获得奖励,若选择不一致则会遭受惩罚并被公布对方选择结果。尽管每个智能体仅掌握自身近期交互记录且不了解群体全貌,但仍能够自发形成一种“潜规则”来共享命名规范。

“每次交互都是两个智能体尝试达成共识的过程。每次交互都是一对一的尝试,在没有全局视角的情况下就‘名称’达成一致。”

他认为,这就类似于“垃圾邮件”这个词的诞生。从来没有人正式定义过所谓的“垃圾邮件”,但其概念却随着人们彼此接触、反复协调而逐渐获得普遍认同。此外,研究小组还观察到自然形成的集体偏见无法追溯到个体因素。

这些 AI 模型在交流过程中表现出了类似人类社会中的行为模式。它们会就共同的行为规范进行协商和调整,甚至会出现分歧和争议,但最终能够达成共识,形成一种类似人类文化中自下而上形成的“道德”或习俗。然而,这些由 AI 群体自发形成的“道德”和习俗并非不可改变。实验中发现,当一小群坚定的 AI 模型出现时,它们能够迅速改变原有的群体约定,并制造出新的规则。

随着 AI 技术的快速发展,越来越多的 AI 模型被应用于各个领域,其行为和决策将对人类社会产生深远影响。科学家称,研究了解 AI 群体的“社会性”特征,能够帮助人类更好地理解和控制 AI 的发展方向,确保 AI 技术始终服务于人类的利益,而不是反过来主导人类的未来。