AI时代,技术给人带来了便利,但黑灰产也可能会是这一“便利”的受益者。对于最近引发火热讨论的AI手机,有专家指出其触发一些App风控机制的原因之一是,“AI让App难以判断操作手机的是不是用户本人”。而这,仅仅是AI Agent(智能体)爆发后带来的问题之一。
12月11日,在黑灰产风控领域积累了十年经验的数美科技提出了“AI风控新范式”。新京报贝壳财经记者采访了数美科技首席技术官梁堃,在他看来,正常人的AI手机助手和黑灰产的机器操作仍然有本质区别,有办法对其进行判定。

数美科技首席技术官梁堃接受新京报贝壳财经记者采访。受访者供图
如何识别用户“是好是坏”?看行为
对于近期AI手机的安全性话题,梁堃告诉新京报贝壳财经记者,这是一个巨大的挑战。未来互联网上的操作行为将从“人占绝大多数”转变为“智能体占绝大多数”。但即便都是机器操作,正常人的AI助手和黑产的机器操作仍然有本质区别。
“我们可以依据‘反欺诈三定律’来进行区分:首先是多样性定律,正常人即使使用AI助手,其设备环境也往往是多样的,比如手机型号有华为、苹果、小米等,系统版本各异,电池电量也分布在30%、70%、100%等不同状态。而黑产为了控制成本,往往批量购买设备,你会发现一个团伙的手机型号可能全是同一款,或者电量状态惊人一致,行为模式(序列)也高度相似。”
“还有一致性定律,正常人不会刻意频繁改变IP、手机号等基础信息。黑产需要注册大量账号,必须不断购买新的IP、手机号等资源。这会导致他们的信息一致性出现断层或异常。”
“最后则是关联性定律,正常用户的社交关联通常也是正常用户,而黑产往往是孤立点,或者其关联的‘朋友’也是黑产账号。这样,通过分析团伙的行为序列、设备多样性、信息一致性以及关联关系,我们仍然能有效识别出哪些是黑产,AI助手只是改变了操作方式,但改变不了设备物理特征和网络环境的聚集性。”梁堃说。
AI让黑灰产养号更方便了,如何应对?
2025年是智能体火爆的一年,其大大提高了AI大模型的落地应用。黑灰产是否也会使用这一工具来“提高效率”,令风控也更难?
“感受非常明显!”梁堃说,现在黑灰产正全面利用大模型技术来提高获利效率,特别体现在养号薅羊毛、模仿用户行为和突破传统验证手法上。
“过去,黑产在薅羊毛时,新注册的账号往往受限,获利较少,需要‘养号’。以前养号很麻烦,回复帖子需要人工准备文案,如果文案重复很容易被系统识别。而现在利用大模型,黑产可以自动生成非常贴合主题的回复。比如在一个特定主题下,AI能生成看似非常真实的评论。这使得账号被‘养’得像真人一样,极大降低了养号成本,提高了后续获利的效率。”
“在行为模式上,过去黑产使用自动化脚本控制工具(如按键精灵),这种方式容易露马脚,例如点击速度过快(非人类速度)。如果为了拟人化在代码中加sleep(暂停),固定的暂停时间会形成‘等间距’特征,容易被识别;如果做随机间隔,代码编写和维护成本较高。而现在,黑产开始使用智能体调用 API和自动化工具。智能体能理解指令并调用函数,几乎零成本地执行复杂操作,且其生成的点击、浏览等行为序列非常像真人,不再有明显的脚本特征。此外,目前多模态大模型还能轻易识别图片内容。比如验证码要求‘点击图中的汽车’,多模态模型能轻松识别并点击,导致传统行为验证码失效。黑产利用这些高效工具,使得攻击更隐蔽、对抗性更强。”梁堃告诉新京报贝壳财经记者。
对于这一新变化,梁堃表示,靠纯人工去对抗已经非常难了,“我们目前的应对体系简单来讲,是先由我们的黑产研究院研究清楚作恶路径,策略团队在‘攻防路径图’上标记需要在哪里识别、防御和处置黑产。然后在原有数美积累的特征基础上,利用大模型来自动生成风险特征。大模型能发现哪些特征对刻画风险非常有用,生成的特征会输入到账号风险模型、行为模型等评分模型中。”
梁堃认为,未来5-10年,人类每天接触的信息将有超过50%来自AI,在此背景下,内容风控的进化将从“识别对象”变为“理解意图”。面对新挑战,引入基于大模型的审核智能体是办法之一。
新京报贝壳财经记者 罗亦丹
编辑 岳彩周
校对 卢茜






