新京报贝壳财经讯(记者罗亦丹)北京时间10月22日,包括诺奖获得者、“AI之父”杰弗里·辛顿,苹果公司联合创始人史蒂夫·沃兹尼亚克,世界上(论文)被引用数最多的科学家尤舒亚·本吉奥,维珍集团创始人理查德·布兰森等在内的科技领袖共同签署了一份“关于超级智能的声明”。


该声明称,“我们呼吁禁止超级智能的开发,除非在确保其安全可控方面形成广泛的科学共识,并赢得公众支持之前,否则不应解除该禁令。”


该声明还说明了发布的背景:创新性人工智能工具或将为人类带来前所未有的健康与繁荣。然而值得注意的是,除工具开发外,多家领先AI企业已公开宣布将在未来十年内实现超级智能的构建目标——即在所有核心认知任务上全面超越人类能力。这种发展态势已引发多重关切,包括人类经济价值被边缘化、自主权丧失、自由与公民权利受损、尊严贬损、控制力削弱等社会风险,乃至国家安全威胁甚至人类存续危机。本声明旨在凝聚共识,让各界知晓越来越多的专家与公众人物反对盲目追求超级智能的立场。


新京报贝壳财经记者注意到,签署该声明的也包括不少来自中国的科学家,如中国科学院院士、清华大学交叉信息研究院院长姚期智,中国工程院外籍院士、清华大学智能产业研究院院长张亚勤,北京前瞻人工智能安全与治理研究院院长、中国科学院自动化研究所研究员曾毅。


截至北京时间21点20分,该声明已获得1068个签名。签名人员之一的曾毅评论称,“直到现在,我们还没有坚实的科学证据和切实可行的方法来确保超级智能的安全,使其不会给人类带来灾难性的风险。世界尚未准备好迎接不是可控工具的超级智能。”


编辑 岳彩周

校对 薛京宁