维基百科志愿者奋力对抗AI生成内容的虚假信息洪流,通过快速删除劣质文章、识别AI写作特征,维护平台可信度,同时探索AI辅助工具提升编辑效率。
维基百科正面临一场前所未有的挑战:人工智能(AI)生成内容的浪潮席卷而来,充斥着虚假信息和伪造引文。志愿者们迅速行动,宛如平台的“免疫系统”,努力捍卫维基百科的公信力。Wikimedia基金会产品总监Marshall Miller将这一反应比喻为身体对抗病毒的自然防御:“志愿者们时刻保持警惕,确保内容中立可靠。面对AI这样的新挑战,他们正在适应并寻找应对之道。”
为了应对AI“垃圾内容”,志愿者们祭出了“快速删除”策略。一些编辑者感叹,他们每天被“可怕的草稿”淹没,这些草稿往往出自AI之手,充斥着谎言和无效引用。一位评论者直言,快速删除机制大大减轻了清理AI遗留垃圾的时间负担。过去,被标记为删除的文章需经过七天的社区讨论,但新规允许管理员在确认文章为未经审校的AI生成内容时,直接绕过讨论迅速删除。如何判断AI痕迹?志愿者们总结了三大特征:文章直接对读者“喊话”,比如“这是你的维基百科文章……”;引用莫名其妙,比如作者或出版物信息错误;甚至引用完全不存在,比如失效链接或无效的ISBN编号。
志愿者们还发起了“AI清理计划”,专门针对那些缺乏来源、写作拙劣的AI内容。他们列出了一份“AI写作特征清单”,不仅包括AI爱用的破折号,还涵盖了某些连接词的滥用,比如“此外”,以及过于华丽的宣传性语言,比如形容某事物“令人叹为观止”。此外,AI文章常使用弯曲引号而非直引号,这些细微的格式差异也成为识别的线索。不过,维基百科强调,仅凭这些特征不足以判定一篇文章为AI生成,快速删除规则同样适用于其他问题内容,比如骚扰性页面、恶作剧或语无伦次的文本。
尽管志愿者们对AI内容严加防范,Wikimedia基金会却对AI持开放态度,认为它既是挑战也是机遇。Marshall Miller坦言:“AI是一把双刃剑。它让低质量内容更容易量产,但若用得恰当,也能成为志愿者的得力助手。”例如,基金会已利用AI检测文章修订中的破坏行为,并计划开发更多工具,协助编辑者完成翻译或重复性任务。基金会还在开发一项名为“编辑检查”的非AI工具,提醒新手编辑者添加引文或保持中立语气,未来或能减轻AI生成内容的审稿压力。此外,一项正在研发的“粘贴检查”功能将询问用户是否亲自撰写了粘贴的大段文本,甚至有用户建议让疑似AI作者说明内容中有多少来自AI。
志愿者与基金会之间并非总是意见一致。今年六月,基金会暂停了一项在文章顶部添加AI生成摘要的实验,因社区强烈反对。尽管如此,Marshall Miller表示,基金会尊重社区的选择,致力于开发支持编辑者的技术:“我们关注社区的做法,聚焦于帮助编辑者进行建设性编辑,同时让他们更高效地审查内容。”
维基百科的这场抗AI“垃圾”战役仍在继续。志愿者们像守卫知识堡垒的卫兵,凭借敏锐的洞察力和严格的规则,力求让这座开放的知识殿堂保持纯净。而AI,既是对手,也是潜在的盟友,关键在于如何驾驭它的力量。
本文译自 The Verge,由 BALI 编辑发布。