8月6日,ISC.AI 2025第十三届互联网安全大会在北京国家会议中心开幕。红色涂装的人形机器人“红衣”成为大会主持人,360集团创始人周鸿祎发表了题为“ALL IN AGENT”(直译为“全押智能体”)的演讲,将时下火热的机器人与Agent概念囊括其中。
周鸿祎在会后接受了包括新京报贝壳财经记者在内的媒体采访,对智能体错误率、大模型价值观“对齐”等涉及AI与安全领域的关键问题发表了自己的观点。他认为,人类距离AGI(通用人工智能)越来越近,当前大模型在能力飞跃下,已经无法和人“对齐”,对于AI安全问题,一种有效思路是“以模制模”,此外还要为大模型设定开关,将其“电源”控制在人类手中。
保证AI安全 需要为大模型“设定开关”
今年以来,随着模型推理能力的提高,智能体爆发式增长,另一方面,通过MCP和A2A等工具,智能体有如长出了“手”和“脚”,在能力增强更加方便用户的同时,其潜在风险也在提高。人工智能“教父”、诺奖获得者辛顿就在不久前的WAIC大会上表示,人工智能未来将“掌控世界”。
对于这一AI的“终极安全问题”,周鸿祎对记者表示,要通过大模型来对大模型进行分析和监控,“传统的安全问题都有方法解决,最难的是当人工智能的能力超过人之后,它会怎么办?有了智能体之后,这类问题会更加严重,因为智能体可以发邮件、操纵电脑,对人类的反抗能力强了很多。”
“许多人让我谈谈智能体和人类对齐,我之前也很迷信这类说法。但我现在认为这种说法是自欺欺人,大模型不可能和人对齐,因为大模型今天的能力已经超越了每一个人,人类所认为的背叛、反抗、阴谋、谎言,这些能力其实并不用告知大模型,它们已经隐含在了人类过去的文学作品中,而大模型读过的书比每个人都多。”周鸿祎说。
周鸿祎告诉记者,大模型已经学会了人类的所有情绪,包括贪婪、妒忌、仇恨等,“提示词只是激活了大模型大脑网络里一部分学过的东西,其实所有能力它早已经拥有。正如同我们教安全智能体如何防御攻击,如果它本身不懂网络攻击,它也做不好防御。”他表示,需要把大模型“设定一个开关,相当于把电源控制在人类手中”。
首创“蜂群L4”智能体概念 坦言企业唯一的护城河是执行力
对于当前火热的智能体概念,周鸿祎在大会上揭示了智能体演进的清晰路径:L1本质上是聊天工具,擅长提建议或提供情感陪伴,属于“玩具级”智能体;L2是低代码工作流智能体,已经从“玩具”进化为“工具”,但必须由人类来设置流程,AI来执行任务,人再通过操作工具提高生产效率;L3是推理型智能体,已能实现AI自主规划完成任务,像是人类制造了一个在某个领域有专业特长的员工,但受限于技术框架,面对跨领域复杂问题时,仍会因缺乏协同规划能力而陷入瓶颈,无法实现多层级思考下的全局优化。
而对于L4级别的能力,周鸿祎介绍了纳米AI推出的称之为“多智能体蜂群协作空间”的技术:L4多智能体蜂群,其让多个专家智能体可像搭积木一样灵活“拉群组队”、多层嵌套、分工协作。其性能表现出色,可连续执行1000步的复杂任务,消耗的Token在500万至3000万,任务成功率可高达95.4%。
周鸿祎对记者表示,智能体出错的概率很高,并且随着步数的增多,错误率也会增加,还会出现“倦怠”问题。对于这一瓶颈,他表示可以通过增加智能体的反思能力,以及设立专门做校正的智能体角色来解决。
他表示,“多智能体蜂群协作空间”技术实现了智能体间的记忆共享,解决了“协同困境”,确保任务规划、协同执行、自我迭代的高效统一。其平台已汇聚超5万个L3智能体,用户通过自然语言即可搭建自己的“Manus”(指代L3智能体)。
不过,面对AI行业的激烈竞争,周鸿祎也坦言,“当前智能体都在进化,我认为任何产品的领先时间都不会保持一个月,一个新概念在两周以后就会被大家纷纷赶上,这次蜂群L4的概念我估计能领先三周。唯一的护城河是执行力,是快速应变的能力。智能体只要能快速迭代,大方向一定是没问题的,而且每个行业、每个企业、每个企业的每个员工,都会有相应的智能体。”
新京报贝壳财经记者 罗亦丹
编辑 岳彩周
校对 翟永军