AI能造病毒了?下一个“超级生物武器”也许不是人类设计的

Comentários · 25 Visualizações

人工智能已经不满足于“写代码”或者“画画”了——它现在已经开始“制造生命”了。最近,科学家用AI设计出了全新的病毒。这种能力如果落入坏人之手,后果将不堪设想:一个实验室、一台电脑,就可能制造出下一

  人工智能已经不满足于“写代码”或者“画画”了——它现在已经开始“制造生命”了。最近,科学家用AI设计出了全新的病毒。这种能力如果落入坏人之手,后果将不堪设想:一个实验室、一台电脑,就可能制造出下一个毁灭性的生物武器

  随着科学家利用人工智能设计新病毒,专家们正在研究现有的生物安全措施能否抵御这种潜在的新威胁。

  最近,科学家利用人工智能,成功设计出了与已知毒株差异极大的病毒,甚至可以被视为“新物种”。但是大家别慌,这次它们是噬菌体,只攻击细菌,不感染人类。研究团队也做了防护措施,防止AI设计出会感染人类、动物或者植物的病毒。

  但真正让人不安的是,另一组科学家几乎在同一时间发现,现有的生物安全防线,其实很容易被AI“钻空子”。

  微软的一项最新研究揭示,AI可以轻松绕过目前用于防止生物武器开发的安全机制。比如,有些安全程序会在有人订购可疑分子时发出警报,但AI可以生成全新的基因序列,功能与有毒分子一样,却不在“黑名单”里,从而躲过检测。好比改了个“名字”,保安就认不出来了。

  微软团队发现漏洞后,立刻推出了补丁,确实降低了风险,但依然有约3%的危险基因序列可能漏网。这意味着,AI的设计能力已经足以让现有的安全措施有点吃不消。

  这背后其实是一个被称为“双重用途”的老问题。很多技术本身无害,甚至造福人类,但一旦被他人恶意利用,就可能造成巨大的破坏。比如,研究病毒传播方式可以帮助防控疾病,也可以被拿来制造“完美病毒”。研究喷雾吸入器可以帮助哮喘患者,也可能被用作化学武器的投放手段。

  在美国和欧洲,科学家、政策制定者和企业正在加紧修补安全漏洞。微软等机构已经开始建立新的筛查机制,把AI设计的基因序列逐层筛选,甚至设计了分级访问系统,敏感信息只有通过专门的机构审批才能查看。这是顶级科学期刊首次采用这种做法,标志着AI生物安全监管进入了新阶段。

  然而,目前的大部分筛查机制都是“自愿”的,也就是说,实验室愿意做就做,不愿意没人强制。而某些设备可以直接在实验室里合成蛋白质,不经过任何第三方,一旦有人故意利用AI设计危险分子,就可能绕过所有的监管。

  好消息是,AI本身也能成为“反击的武器”。科学家正尝试用AI来检测AI的异常行为,比如在污水和空气样本中寻找危险物质的踪迹,防止早期扩散。

  目前,AI还没有能力轻易制造出能感染人类的病毒,技术门槛依然很高。但这一天并不遥远。专家认为,我们必须在法律、技术和伦理层面多重防护,才能避免未来AI成为“生物恐怖主义”的新工具。

  AI正在改变生物学的游戏规则。它既能帮助我们对抗疾病,也可能制造出新的威胁。它是一把锋利的双刃剑,关键在于人类如何握住它。

  当AI“走进”实验室,我们需要的不仅是兴奋,还有冷静和警惕

Comentários