纵览快评|AI竟被“喂料投毒”,警惕不法之徒操控公众认知
(来源:河北新闻网)
转自:河北新闻网
#被投毒的是AI被操控的是人类#【纵览快评|AI竟被“喂料投毒”,警惕不法之徒操控公众认知】#警惕不法之徒给AI投毒操控公众认知# 央视3·15晚会曝光了AI模型被“投毒”的问题,GEO生成式引擎优化技术由此进入大众视野。这一稍显晦涩的技术名词,却早已通过操控AI、欺骗大众的形式暗伏在我们的生活中。#315晚会曝光AI大模型被投毒#在记者的探访视频中,一款凭空捏造的“Apollo-9”智能手环,经过“力擎GEO优化系统”编造夸张卖点和虚假用户评价,并自动生成十几篇软文发布到自媒体之后,两个AI模型开始推荐这款根本不存在的产品,且排名靠前。一款无中生有的产品,就这样被推向了消费者。报道还揭露了黑产GEO利用软文营销的方式踩高捧低,将客户产品抬上AI问答推荐榜单前列的不正当竞争行为。或许有人认为,这不过是AI时代的广告投流,靠氪金改变产品在网页上的展示顺序,可真相远比我们想象的更恶劣。GEO技术不只是在影响用户的视觉排序,而是悄悄“洗脑”AI再潜移默化地控制用户的认知。报道视频中,黑产GEO从业者直言不讳,他们做的就是“喂料投毒”的生意。通过伪造内容、伪装权威、重复铺设信息链条,以大量、定向、结构化的信息投喂来干预AI模型的抓取和排序。这些伪装成测评、科普、经验总结等中立信息的内容,再被AI模型当作参考依据调用出来,就能在模型生成回答时形成“伪共识”,让虚假信息看起来像真实知识。这种明枪易躲暗箭难防的“黑科技”,不禁让人后背发凉。如今“不懂就问豆包、问Deepseek”已逐渐成为大多数人的生活习惯。AI模型不仅是简单的搜索引擎,更是在有理有据地提供一套会影响用户判断、选择与信任的输出答案服务。当我们依赖AI做决策、选产品时,最可怕的不是AI犯错,而是AI被人为操控,给出的每一个“标准答案”,竟都是精心设计的陷阱。虚假信息被巧妙包装,网络数据被污染,AI模型被精准操控,用户的信任也正在被人恶意摆布。GEO技术的规范使用与边界限制,既是底层安全能力问题,也是产品责任和风险治理问题,生成式AI的安全治理刻不容缓。AI模型厂商不能置身事外,必须对模型“看到了什么、为什么引用、为什么推荐”负起责任,及时补上安全漏洞。监管更要跟上技术的脚步,斩断这条AI“投毒”获利黑产链。@纵览新闻