
近日,一封由非营利组织“生命未来研究所”(Future of Life Institute)发起的公开信股票配资世界,获得了超过 1,000 名公众人物的联署。信中呼吁,在获得“广泛的科学共识(证明其能被安全可控地完成)和强烈的公众支持”之前,应该明确禁止超级智能的开发。
(来源:superintelligence statement)
洋洋洒洒的签署名单揭示了这场焦虑已普遍蔓延至政治、商业和文化领域。名单中不仅包括了“AI 教父”杰弗里·辛顿(Geoffrey Hinton)、约书亚·本吉奥(Yoshua Bengio)和图灵奖得主姚期智,还包括了苹果联合创始人史蒂夫·沃兹尼亚克(Steve Wozniak)、维珍创始人理查德·布兰森(Richard Branson);甚至还包括了哈里王子夫妇、特朗普的前战略师史蒂夫·班农(Steve Bannon)以及奥巴马时期的国家安全顾问苏珊·赖斯(Susan Rice)。
这封信要求,在“就其安全可控达成广泛科学共识”和“获得强有力的公众支持”之前,领先的人工智能实验室必须停止他们对这种超级能力的追求。
展开剩余72%公开信中谈及,人工智能行业正竞相构建能在未来十年内、在几乎所有认知任务上超越人类的系统,这将置人类社会于不可回旋的风险之中:经济剧变、人类失控、公民自由受到威胁,乃至“人类灭绝”的可能性。历史学家尤瓦尔·赫拉利(Yuval Noah Harari)甚至发出警告,超级智能可能会摧毁“人类文明的操作系统”。
这种恐惧并非杞人忧天。与公开信一同发布的民调显示,高达 73% 的美国人希望对先进的人工智能进行强有力的监管,64% 的人同意在安全可控前不应开发超级智能。“95% 的美国人不想要一场通往超级智能的竞赛,专家们也希望禁止它,”生命未来研究所主席马克斯·泰格马克(Max Tegmark)在声明中总结道。
(来源:superintelligence statement)
然而,这封信最大的意义或许不在于它是否能成功调整行业发展的步调。毕竟,该组织曾在 2023 年初发布“呼吁暂停六个月”的公开信,最终对行业的发展步伐没有产生任何影响。包括 Meta、谷歌 DeepMind 和 OpenAI 在内的几家主要 AI 实验室,还在积极地追求达到或超越人类智能水平的先进智能体。一些激进的专家估计,超级智能最早可能在“2020 年代末”实现。这一次,这封口径更严厉的呼吁,反而像一面镜子,照出了人工智能行业内部的深度分裂。
行业的分裂正变得日益公开化。一边是辛顿、本吉奥等人对生存风险的深切担忧;另一边,则是以 Meta 首席 AI 科学家杨立昆(Yann LeCun)为代表的“技术乐观派”。
杨立昆尖锐地批评了那些公开警告 AGI 危险、私下却在构建同类系统的同行(如 Anthropic CEO Dario Amodei),称这种立场“在理智上不诚实”。杨立昆认为,当前的大型语言模型被严重高估,并且正在走向技术的死胡同,何来谈及威胁人类生存。
《人工智能:一种现代方法》的作者斯图尔特·罗素(Stuart Russell)也警告称,当前膨胀的预期可能引发类似互联网泡沫破灭的信心崩溃。他表示,这次该团体并不是在呼吁“通常意义上的禁令甚至暂停”,而只是“提议在开发继续之前要求足够的安全措施”。就连 OpenAI 的主席布雷特·泰勒(Bret Taylor)也公开表示,如今的 AI 热潮与当年的互联网时代有着强烈的相似之处。
这场公开的立场分化正在拷问整个人工智能行业:我们是正站在“失控”的悬崖边,还是处于“泡沫”破灭的前夜?
尽管本吉奥呼吁 AI 系统应“从根本上无法伤害人类”,哈里王子也表示“AI 的未来应该服务于人类,而不是取代人类”,但这场辩论在可见的未来还不会有答案。在领先的实验室继续追求更强系统的同时,这场关于 AI 终极形态的论战,才刚刚开始。
参考资料:
1.https://fortune.com/2025/10/22/ai-superintelligence-richard-branson-prince-harry-call-for-pause/
2.https://the-decoder.com/the-ai-pause-group-is-back-with-another-warning-about-superintelligence/
3.https://superintelligence-statement.org/
运营/排版:何晨龙股票配资世界
发布于:北京市无忧配资提示:文章来自网络,不代表本站观点。