DeepMind之父坦言:我造的AI可能灭绝人类 但已无人能停下

倚天百科 百科资讯 2

3月31日消息,近日,DeepMind创始人德米斯・哈萨比斯坦言,其研发的超级人工智能存在灭绝人类的风险,而当前AI发展竞赛已进入无法停止的状态,人类难以通过外部治理手段有效管控。

他彻底放弃此前依赖制度、伦理委员会约束AI的构想,承认治理结构在关键决策中难以发挥作用,只能依靠自身争取话语权来把控AI安全走向。

哈萨比斯一直是AI安全的坚定倡导者,早年曾设想通过独立监督、秘密研发等方式打造绝对安全的超级智能。


2014年将DeepMind出售给谷歌时,还明确要求保留AI安全独立决策权、设立外部监督委员会并禁止军事应用。

但这些安全构想接连落空,马斯克参与相关集会后转而创立OpenAI,打破了单一主体管控AI的设想,后续与谷歌的治理权谈判也以失败告终。

2022年ChatGPT的出现,彻底打乱了AI研发节奏,谷歌陷入竞争焦虑,DeepMind与谷歌大脑合并,安全规范让位于研发速度,此前的安全防线逐步失效。

哈萨比斯由此认清现实,在商业竞争与技术竞赛压力下,依附于商业巨头的非营利治理机制难以存续。

如今哈萨比斯转变思路,核心主张是让自己占据核心决策位置,凭借对AI风险的敬畏之心,在关键节点把控技术方向。

他一边推进Gemini等模型研发,一边坚守安全底线,试图以个人影响力降低AI失控风险。

业内分析认为,这一转变折射出全球AI竞赛的残酷现状,统一治理难以实现,AI安全窗口持续收窄,人类正面临关乎文明存续的巨大挑战。