连日来,国内刮起了一股“养龙虾”的风。这个看似新奇的概念,实则指向AI智能体的落地应用。


热潮之下,安全问题随之进入公众视野。全国人大代表、中国工程院院士、鹏城实验室主任高文在接受新京报记者采访时表示,这股热潮并非偶然,“它正好满足了人工智能智能体落地的需求”。


面对这场正在发生的变革,高文也向普通用户发出提醒:在“喂养”AI助理、享受技术便利的同时,务必保持对支付账号等敏感信息的警惕。


全国人大代表、中国工程院院士、鹏城实验室主任高文。受访者供图


养龙虾为在中国这么火?


“技术本身一定是迭代得比较快,每年都有一些新的东西出来。”高文指出,“智能体技术并不是今年才有的,去年国内就有一家公司因AI智能体产品Manus走红,只是那家公司不是用开源的方式。”


那为什么是今年?“它特别符合现在发展的潮流,既解决了人工智能到底和个人怎么用的关联性,同时又是采用开源的方式。”高文分析,“去年大模型还没这么好用,但经过DeepSeek 这一波的冲击,现在大模型越来越好用,而且基于Token的商业模式已经出来了。在这种前提下,‘龙虾’就可以养了。”


他进一步总结道,“这个技术如果是去年出来,不会这么火。时至今年,正好所有条件基本具备,它刚好抓住机会。这个火并不是因为大家认为它该火,而是它正好满足了AI智能体落地的需求。”


“养龙虾”并非在中国率先出圈,那为何能在中国迅速引爆?根据高文观察,此前国内关注的焦点是机器人,尤其是人形机器人,但机器人要和每一个个体直接联系起来“有点吃力”,“受众接受得也没有那么快。”


而AI智能体不一样,当一项技术与每个人的日常生活产生关联,它的影响力就能迅速破圈。高文形象地说,“这个接触面一下就破开了。”


谁来为“养龙虾”的安全负责?


随着AI智能体加速落地,谁来为安全负责成为核心议题。


“首先你个人要负责,而现在要考虑的因素更多了。”高文举例,“比如现在你要想上鸿蒙系统,华为都会给你测试、验证一下,它负了大部分责任。如果某个政府部门要用‘龙虾’来做什么东西,出现了数据方面安全的问题,那就是这个部门要负责了。”


从他的逻辑来看,谁应用,谁负责;谁获益,谁兜底。延伸到更宏观的市场层面,责任是分层的。高文指出,整个宏观市场的安全要么是平台来负责,出了问题它要兜着。尽管如此,使用者也要保持警惕。


他以自动驾驶举例,“车企可以设计出来、制造出来。但不能让车企完全负责上路后的事,如何负责得具体分析。同样的逻辑,不能说必须等AI智能体完全测试安全了才放出来。如果这样,这东西永远放不出来。”


谈及普通用户该如何应对时,高文表示,“你养‘龙虾’的时候,要把很多权限开放给它。你要信它,然后喂它Token,‘龙虾’吃了Token以后,就会越养越大,越养越好,变成你的一个助理。但是你放权限给它的时候,心里要很清楚——一些隐私权限开放后,会不会钱丢了?家里信息都让它给弄走了?要有这个风险意识,你就需要小心点,个人数据特别是支付账号不能随随便便就扔出去。”


此外,面对“被高科技代替”的普遍焦虑,高文坦言,根本没有必要焦虑,因为技术就是这样迭代,新技术层出不穷。


新京报贝壳财经记者 胡萌


编辑 王进雨


校对 卢茜