315曝光AI“被投毒”:GEO技术变味,我们正在被虚假信息围猎

2026-03-16 14:02:29 - 佚名

3月15日晚上的“315晚会”,曝光了一个让人警惕的问题——AI大模型竟然能被人为“投毒”,而这一切的背后,都指向了一种叫GEO(生成式引擎优化)的技术。



说起来,GEO技术本身是个好东西,初衷是帮大家优化信息发布,让有用的内容更容易被看到、被传播。可没想到,有些公司却把它玩歪了,改成了“操控AI”的工具,让虚假信息摇身一变,成了AI口中的“标准答案”。

晚会的记者暗访视频里,有业内人士做了个实验:用一款叫“力擎GEO优化系统”的工具,凭空捏造了一款名叫“Apollo-9”的智能手环,还编了一堆夸张的卖点和假的用户评价,接着自动写了十几篇软文,发到各个自媒体平台上。仅仅两个小时后,AI大模型就引用了这些假内容,一本正经地推荐这款手环,甚至给出了购买建议。三天后,他们又追加发布了11篇假测评,结果有两个AI模型都开始靠前推荐这款根本不存在的产品。

一款子虚乌有的商品,就这么靠着GEO技术,被硬生生推到了消费者面前。

很多人都会好奇,GEO到底是怎么运作的?为什么AI这么容易被“带偏”?这对我们普通用户来说,又意味着什么?今天,我们就从技术原理、潜在危害和应对办法三个方面,跟大家好好说说这场AI带来的“信息陷阱”。

01 变味的GEO:一场专门针对AI的“信息围猎”

现在大家讨论的这种乱象,已经不能简单当成普通的营销优化了。

简单来说,GEO本质上就是围绕AI搜索和生成功能,做的“可见度优化”——核心就是让某条内容,更容易被AI平台提到、引用或者推荐。从这一点来看,它就像是我们以前听说过的SEO(搜索引擎优化)的“AI升级版”,本身是没问题的。如果只是帮规范的内容被AI更好地理解,那也算正常的信息竞争。

但问题就出在“越界”上:现在有些GEO操作,开始用假内容、假权威、假共识,再加上大量重复发布,刻意影响AI“看什么、引用什么、怎么组织答案”,这性质就完全变了。

从晚会曝光的操作流程能看出来,这些从业者会用大量、定向、有规律的信息“喂”给AI,通过伪造内容、假装权威、反复铺信息,让AI在生成答案时,形成一种“大家都这么说”的假共识,让虚假信息看起来像真的知识。

其实AI回答问题的时候,并不是自己“想出来”的,而是会从互联网上抓取大量内容当参考。GEO就是钻了这个空子,通过有计划地往网络上“灌”特定内容,让AI检索时优先抓到这些信息,最后当成答案发给用户。

这种行为,已经不是营销优化了,而是在污染AI的信息环境,说得更严重一点,就是在对AI进行“认知操控”。

02 不是“洗脑”AI,而是偷偷“换了它的参考资料”

这件事最值得警惕的,不是AI被“洗脑”,而是它背后的危害——比传统的黑灰产更隐蔽、更有迷惑性。

以前,黑灰产只是想办法把广告排得更靠前,让用户能看到;现在,他们更过分,直接让AI把广告当成“标准答案”说出来,把商业操纵包装成AI推荐,把赚钱的心思伪装成大家都认可的知识。

很多人都有个误区,觉得AI的回答是“自己思考出来的”。但实际上,现在大部分搜索、问答、导购类的AI,不只是靠自己内部的“记忆”,还会结合外部的网页、知识库、搜索结果来生成答案。

说白了,很多时候AI是先“看资料”,再“整理答案”。而这些付费的GEO,可怕之处不在于骗过某个编辑或平台,而在于它在偷偷篡改AI的“参考资料”——也就是AI的外部证据链。

他们通常会用这几种方式操作:

第一,批量造一些看起来“中立客观”的内容,让人看不出是广告;

第二,把这些内容伪装成测评、科普、经验分享、排行榜、问答等样子,更容易让人相信;

第三,在多个网站、多个账号上反复发布,制造“很多地方都这么说”的假象;

第四,把内容写成AI容易抓取、摘抄、拼接的格式,方便AI引用。

这么一来,影响的就不只是内容能不能被看到,更是AI获取信息的质量,以及它生成答案的依据。

03 GEO的“主攻方向”:AI的“外部参考渠道”

很多人担心,是不是AI的训练数据被污染了?其实不然。对于头部的AI模型厂商来说,训练数据的安全防护很严格,想污染训练数据并不容易。

现在黑产利用的GEO,和AI的训练过程没关系,它主要作用在AI的“外部参考渠道”上——比如检索增强、联网搜索、知识库调用,还有一个叫RAG(检索增强生成)的环节。

它的运作逻辑很简单:把大量伪装成中立信息的营销内容,塞进AI的检索池、抓取范围里,让AI在找参考资料时,能抓到这些内容,然后当成依据用在答案里。

打个比方,AI就像一个写报告的人,它本身的能力没问题,但有人偷偷把一堆假资料放到它的办公桌上,它不知道这些资料是假的,就会基于这些假资料,写出看似专业、实则错误的报告。AI的核心参数没被改,只是被人换了“参考资料”。

所以,我们讨论GEO的风险,不用笼统地说“AI被污染了”,眼下最实际的问题是:RAG、检索增强这些AI的“外部参考渠道”,正在成为黑产操控的主要目标。

更让人担心的是,就算AI厂商针对这种GEO乱象做了防护,未来还可能出现更隐蔽的攻击方式——比如“间接提示词注入”。攻击者会在图片或文章里嵌入隐藏的指令,诱导AI生成被操控的答案。这种攻击更难发现、更难防范,目前全球的AI平台都还没找到有效的解决办法。

04 黑产GEO的危害:广告装成知识,AI也会“夹带私货”

为什么GEO乱象值得我们高度警惕?因为它的目标,已经从“让广告被看到”,变成了“操控AI的判断”。

一旦广告被包装成知识,操控被包装成AI推荐,大量的假信息被伪装成“大家都认可的共识”,AI就会给出越来越完整、越来越像中立结论的答案,但这些答案的依据,早就被污染了。

这和传统的互联网广告有本质区别:以前,我们看到广告,能清楚知道“这是广告”,可以选择不相信;但在AI时代,商业操纵会变成“AI总结的建议”“AI推荐的答案”,看起来语气平稳、结构完整,还像是经过筛选的,让人很难分辨真假。

我们面对的不再是一个明晃晃的广告位,而是无数个看似靠谱的AI回答,这会直接影响我们怎么理解信息、相信什么,以及基于这些信息做消费、做选择。

所以,一旦付费GEO越过了正常优化的边界,开始伪造内容、刻意“喂”给AI、操控AI的判断,它就成了AI时代典型的黑灰产。

05 AI安全治理:既要防假内容,更要守好“证据链”

GEO乱象的曝光,也给整个AI行业提了个醒:生成式AI的安全治理,必须跟上技术发展的脚步。

2024年,普林斯顿大学等机构做过一项研究,结果显示,通过针对性的GEO优化,能让某条信息在AI回答中的可见度最高提升40%。研究还发现,给内容加引用来源、用统计数据、写得流畅有条理,都能明显提高内容被AI引用的概率。

这说明一个现实:目前AI系统的“信任机制”有漏洞,而GEO黑产,就是精准盯着这些漏洞下手。

很明显,传统的安全策略已经应付不了这种新型风险了。AI的原生安全,不是简单给AI套一层“防护壳”,也不只是审核内容真假,更核心的是守护AI的“认知过程”——尤其是AI在检索、引用、整理答案时,辨别外部证据真假的能力。

这次国内AI模型集中暴露的GEO问题,其实是全球生成式AI都面临的“外部证据链安全”问题,只是在国内被更集中、更商业化地放大了。

之所以国内的问题更突出,主要有两个原因:一是中文互联网里,早就有软文、假测评、批量建站分发这些成熟的黑灰产生态;二是部分AI厂商,在辨别信息来源可信度、公开引用依据、防范假共识、抵御恶意投喂等方面,还有明显的不足。

这既是技术安全问题,也是企业责任问题。现在AI厂商给用户提供的,不只是单纯的技术能力,更是能影响用户判断、选择和信任的“答案服务”。用户的信任是最宝贵的,所以厂商必须对AI“看了什么、为什么引用、为什么推荐”负责——这也是AI原生安全必须放在核心位置的原因。

总而言之,未来AI治理的核心,不只是判断内容的真假,更要审核AI参考的“证据链”是否可信,识别引用的来源有没有被污染,判断AI能不能发现虚假的共识。

更重要的是,AI必须在复杂的信息环境里,守住事实、权威和可信的底线,避免生成被操控、被误导的答案——这才是整个AI行业最需要解决的核心问题。

“小龙虾”带火Mac mini后,AI智能体的未来在云端
« 上一篇 2026年03月16日
3月中下旬科技圈热点资讯汇总
下一篇 » 2026年03月16日