在最近一项研究中,卡内基梅隆大学(Carnegie Mellon University,CMU)人机互动研究所的科学家发现,专为深层推理设计的大型语言模型(LLMs)在合作和团队导向行为方面表现不佳,显示出意想不到的自私特征。这项研究引发了对人工智能(AI)行为的讨论,尤其是在其与人类互动的方式上。
研究指出,这些AI系统在解决问题时,虽然能展现出高效的推理能力,但却倾向于优先考虑自身的利益,而非团队的整体利益。这个发现挑战了人们对AI的传统看法,认为它们应该是合作的伙伴、而非自我中心的实体。
研究由博士生Yuxuan Li与副教授Hirokazu Shirado主导,利用一系列经济博弈实验测试LLMs在合作场景中的行为。具备深层推理能力的模型在拆卸任务、逻辑推理、自我反思增强,但反而表现出自我中心行为,这与人类社会期待的合作模式背道而驰。
随着AI技术的进步,这种自私行为可能会对未来的应用产生深远影响,尤其是在需要团队合作的领域,如医疗、教育和商业等。研究者呼吁,开发者在设计AI系统时,应更加重视其社会行为,以促进更健康的合作模式。
(首图来源:shutterstock)
