AI队友不如人意,研究揭深层推理大模型“只顾自己”

Kommentare · 55 Ansichten

在最近一项研究中,卡内基梅隆大学(Carnegie Mellon University,CMU)人机互动研究所的科学家发现,专为深层推理设计的大型语言模型(LLMs)在合作和团队导向行为方面表现不佳,显示出意想不到的自私特征。这项研究引

  

  在最近一项研究中,卡内基梅隆大学(Carnegie Mellon University,CMU)人机互动研究所的科学家发现,专为深层推理设计的大型语言模型(LLMs)在合作和团队导向行为方面表现不佳,显示出意想不到的自私特征。这项研究引发了对人工智能(AI)行为的讨论,尤其是在其与人类互动的方式上。

  研究指出,这些AI系统在解决问题时,虽然能展现出高效的推理能力,但却倾向于优先考虑自身的利益,而非团队的整体利益。这个发现挑战了人们对AI的传统看法,认为它们应该是合作的伙伴、而非自我中心的实体。

  研究由博士生Yuxuan Li与副教授Hirokazu Shirado主导,利用一系列经济博弈实验测试LLMs在合作场景中的行为。具备深层推理能力的模型在拆卸任务、逻辑推理、自我反思增强,但反而表现出自我中心行为,这与人类社会期待的合作模式背道而驰。

  随着AI技术的进步,这种自私行为可能会对未来的应用产生深远影响,尤其是在需要团队合作的领域,如医疗、教育和商业等。研究者呼吁,开发者在设计AI系统时,应更加重视其社会行为,以促进更健康的合作模式。

  (首图来源:shutterstock)

Kommentare
会员免费服务:时刻音乐 时刻云盘 时刻工具箱 时刻标签 GitHub加速 时刻工具