本文作者:访客

全球名流呼吁禁止开发超级智能,未来安全的警示钟敲响

访客 2025-10-22 14:52:32 4 抢沙发
全球超过800位世界名流联名发起倡议,呼吁禁止开发超级智能,他们担忧超级智能的发展可能带来不可预测的风险和挑战,包括但不限于对人类生活和工作的影响以及潜在的安全隐患,这些名流呼吁全球各界共同关注这一问题,并寻求解决方案,以确保人工智能的发展能够造福人类,而不是成为威胁。
10月22日消息,据英国《金融时报》报道,史蒂夫・班农(SteveBannon)、梅根・马克尔(MeghanMarkle)与斯蒂芬・弗莱(StephenFry)等公众人物,正与其他各界人士组成一个联盟,共同呼吁对所谓“超级智能”的研发实施“禁令”,以抵制先进人工智能系统的发展。
注意到,包括人工智能科学家、政治家、名人及宗教领袖在内的800多人签署了一份声明,要求阻止“超级智能”(即在智力上超越大多数人类的人工智能系统)的开发。该声明指出:“我们呼吁禁止超级智能的研发,在获得广泛的科学共识确认其发展可被安全、可控地进行,并赢得公众普遍支持之前,不应解除这一禁令。”签署者中包括“AI教父”杰弗里・辛顿(GeoffreyHinton)和约书亚・本吉奥(YoshuaBengio)、爱尔兰前总统玛丽・罗宾逊(MaryRobinson),以及哈里王子(PrinceHarry)。非营利性倡导组织“生命未来研究所”(FutureofLifeInstitute,FLI)于周三发布了这封公开信,并同时公布了一项民意调查结果:仅有5%的美国人支持当前“不受监管的人工智能开发现状”。而根据该组织开展的这项调查,近四分之三的受访者支持对人工智能实行强有力的监管。该研究所主席马克斯・泰格马克(MaxTegmark)表示:“正是我们共有的人性将所有人凝聚在一起……越来越多的人开始意识到,最大的威胁或许并非来自另一家公司,甚至不是另一个国家,而是我们自己正在建造的机器。”目前,包括OpenAI、Meta和谷歌在内的多家顶尖科技巨头及人工智能初创企业,正激烈竞争以率先实现“超级智能”或“通用人工智能”(AGI)的突破。这两个术语通常指在绝大多数任务上表现超越人类的人工智能系统。2023年3月,在ChatGPT发布五个月后,埃隆・马斯克(ElonMusk)等科技专家曾签署由FLI组织发布的类似声明,呼吁暂停所有人工智能研发六个月。然而,马斯克旗下的xAI公司如今却在持续推进人工智能系统的开发。泰格马克强调,此次最新声明范围更为聚焦,“绝非呼吁全面暂停人工智能的发展”。他补充道:“治愈癌症、实现自动驾驶,或大幅提升生产力和效率,这些目标都不需要依赖超级智能即可达成。”多位中国知名科学家也签署了该声明,其中包括图灵奖得主姚期智和百度前总裁张亚勤。其他签署者还包括美国前政府高官:前国家安全顾问苏珊・赖斯(SusanRice),以及曾担任美军参谋长联席会议主席的迈克・马伦(MikeMullen)。泰格马克表示:“无论是西方还是中国,都将失控视为国家安全威胁。出于自身利益,他们都会反对失控,因此他们根本不需要相互信任。”其他签署者还包括苹果联合创始人史蒂夫・沃兹尼亚克(SteveWozniak)、维珍集团联合创始人理查德・布兰森(RichardBranson),以及来自各大宗教的信仰领袖。全球范围内的人工智能监管进程进展缓慢。尽管遭到产业界的强烈批评,最先进的立法框架——欧盟《人工智能法案》(EUAIAct)——正分阶段实施。在美国,加利福尼亚州、犹他州和得克萨斯州等已颁布针对人工智能的具体法律。
文章版权及转载声明

作者:访客本文地址:https://shucuo.cn/post/2924.html发布于 2025-10-22 14:52:32
文章转载或复制请以超链接形式并注明出处数错网

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

微信扫一扫打赏

阅读
分享

发表评论

快捷回复:

验证码

评论列表 (暂无评论,4人围观)参与讨论

还没有评论,来说两句吧...