本文作者:访客

顶级大佬呼吁,暂停超级智能研发,缺乏确凿安全证据

访客 2025-10-26 15:44:33 657 抢沙发
超过三千名顶级专家呼吁暂停超级智能研发的进展,直至有坚实证据确保其安全性,他们担忧,在目前的技术水平和道德伦理框架下,超级智能的进一步研发可能带来不可预测的风险,这一呼吁旨在平衡科技进步与社会责任,强调在推进人工智能发展时,应更加重视其潜在的安全隐患和对人类未来的影响。

10月26日消息,中美两国人工智能领域的顶尖专家和技术领袖联名发起一项呼吁,在科学界达成安全可控开发超级智能的广泛共识前,应暂停超级智能的研发。

这项倡议由非营利组织未来生命研究所发起,目前已获多位重量级人士签名支持,包括人工智能先驱杰弗里·辛顿、苹果联合创始人史蒂夫·沃兹尼亚克、维珍集团董事长理查·布兰森、经济学家达龙·阿西莫格鲁,以及前美国国家安全顾问苏珊·赖斯。此外,哈里王子与夫人梅根、前政治顾问史蒂夫·班农等公众人物也参与联署。

截至10月23日中午,联署人数已达3193人。中国学界亦有重要代表加入,包括中国科学院院士、图灵奖得主姚期智,清华大学讲席教授张亚勤,以及清华大学苏世民书院院长薛澜等。

所谓超级智能,指的是在所有认知任务上超越人类水平的人工智能形态。尽管目前大多数公司所研发的仍属于通用人工智能(AGI),但超级智能所预示的能力已引发业界普遍忧虑。

声明中指出,多家领先的AI企业正竞相投入超级智能的研发,这一趋势引发了广泛担忧,包括人类在经济上被取代与边缘化、自由与公民权利受损、尊严与控制权丧失,乃至国家安全风险,甚至可能带来人类灭绝的极端威胁。

当前,超级智能已成为AI领域的热词。从埃隆·马斯克的xAI到萨姆·奥特曼领导的OpenAI,多家机构正积极推进更先进的大语言模型研发。Meta甚至将其大语言模型部门直接命名为Meta超级智能实验室。

在这一背景下,科技界对人工智能发展的态度日益分化:一方视AI为推动社会进步的关键力量,主张自由发展;另一方则强调其潜在风险,呼吁加强监管。

值得注意的是,即便是马斯克、奥特曼等身处AI研发前沿的领军人物,过去也曾对超级智能的风险发出警告。例如,奥特曼在2015年的一篇博客中写道:发展超人类机器智能可能是对人类持续存在的最大威胁。

中国科学院计算技术研究所研究员曾毅指出,目前绝大多数企业所研发的仍属通用人工智能工具,并非真正意义上的超级智能。然而,超级智能所带来的风险目前在科学上仍无法有效控制。他特别提到,美国企业如Meta设立超级智能实验室,以及阿里巴巴等中国公司公开宣称研发超级智能,这些动向已超出通用人工智能工具的范畴,值得高度关注。

顶级大佬呼吁,暂停超级智能研发,缺乏确凿安全证据
文章版权及转载声明

作者:访客本文地址:https://www.hujinzicha.net/post/5234.html发布于 2025-10-26 15:44:33
文章转载或复制请以超链接形式并注明出处北方经济网

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

微信扫一扫打赏

阅读
分享

发表评论

快捷回复:

验证码

评论列表 (暂无评论,657人围观)参与讨论

还没有评论,来说两句吧...