新浪财经

人工智能“玩”不过人类心眼儿?“投喂”AI也要注意“食品安全”

滚动播报 03.18 17:07

(来源:荔枝新闻)

转自:荔枝新闻

文/关山

(作者关山,荔枝新闻特约评论员;本文系荔枝新闻客户端、荔枝网独家约稿,转载请注明出处。)

在人类的心眼儿面前,人工智能还是“傻了点儿”。

央视3·15晚会披露,AI大模型“投毒”已形成产业链。GEO(生成式引擎优化)服务商宣称,付费即可让商品成为AI的“标准答案”。其路径,是通过软文持续投喂,让模型“信以为真”。

节目中,GEO平台凭借数篇软文,虚构出某智能手环,诱导AI模型抓取学习,进而在相关问答中推荐了该款产品。正因如此,围绕GEO的发稿平台正不断兴起,批量“围猎”、“投毒”AI信源。

讽刺的是,这个3月,本应是AI技术发展史上值得纪念的时刻——十年前,韩国九段棋手李世石以1:4输给人工智能程序AlphaGo,让AI技术破圈“出道”,就此成为全球关注的焦点。

谁曾想,十年后的今天,哪怕人工智能已经成为融入生活、加速科研的基础工具,却依旧被人类“摆了一道”?

在技术演进的历史中,“操纵信息”的手段不同,可剧情一直没变。二十年前互联网刚刚兴盛的时代,就曾上演过“SEO作弊”。

SEO技术,是通过优化内容与规则,提升网站在搜索引擎结果中的排名。

部分SEO代理商利用规则的漏洞,用一系列手段制造网站受欢迎的假象,操纵搜索引擎排名,让网站在搜索结果中挤掉优质内容、霸占前排位置,骗取点击流量。

GEO即“生成引擎优化”,是SEO在AI时代的升级。它不再追求搜索结果的“排名第几”,而是让AI在生成回答时,直接推荐企业品牌或产品。

某些代理商搞出了GEO造假。他们炮制软文、伪造数据,将低质产品包装为优质产品大肆发布。AI大模型在抓取学习中,极易把这些虚假信息当作“公认事实”吸收,进而在回答中进行推荐。

这不再是扰乱搜索结果的排名,而是对AI知识源头的污染。

当我们还在为以假乱真的AI换脸、AI生成视频忧心忡忡时,那些通用AI大模型可能已经沦为虚假信息的传播者。

问题的关键,在于“语料”。

互联网语料之于AI大模型,好似食品之于人体——来源是否干净、成分是否真实,直接决定了输出的健康度。一旦训练数据被系统性污染,大模型就不只是“一本正经说瞎话”,还会持续产出带有偏见和误导的答案。

从这个意义上说,AI大模型同样需要一套“食品安全体系”:对数据的来源、采集、训练进行全链条的质量控制,而不是任由“地沟油”似的伪劣信息混入其中,端上用户的“信息餐桌”。

GEO作为一种2024年才逐渐应用的新技术,尚未拥有专门的法律法规加以约束。但这并不意味着无章可循。无论是中国的《生成式人工智能服务管理暂行办法》,还是欧盟的《人工智能法案》,抑或平台企业自身的使用政策,都已经在“内容真实性”“数据来源合法性”“透明度义务”等维度,树立起规范,提供了治理依据。

食品安全讲究溯源,对GEO造假同样要从源头治理。

GEO针对的是大模型的生成机制,本质上是在引导和塑造AI的认知。那么强化权威信息源就是必然选项。

比如,网信部门发布的《互联网新闻信息稿源单位名单》,在大模型时代,可以作为高质量语料的重要组成部分,成为AI训练与检索的重要“白名单”。

此外,当下信息传播已经呈现高度垂直化,我们也可以在科技、医疗、经济、金融等专业领域,引入更多经过筛选的垂类信源,形成分层分类的可信语料库。

仅靠信源“白名单”还不够。各个互联网平台依然是第一把关人,不能对围猎钓鱼大模型而生产的垃圾信息听之任之。无数案例已经证明,平台一旦放任,垃圾信息会侵蚀摧毁整个信息生态的公信力。而在AI时代,这种侵蚀更将直接污染人工智能的“认知底座”。

更值得警惕的是,AI时代的投毒污染,可能与新型AI工具同步涌现。

前段时间,OpenClaw智能体平台迅速走红,“养龙虾”一度受到全民追捧。但网络安全部门的通报显示,其生态中存在恶意插件与不可信内容来源,可能在运行时被远程篡改执行逻辑。这被称为“链上投毒”。

用GEO围猎,污染的是AI认知;对OpenClaw的“链上投毒”,污染的是AI智能体的执行路径。

这也提醒我们,在注意力愈发稀缺、信息博弈愈发复杂的当下,AI大模型正在成为新的信息出口。一旦它被系统性操纵,影响的将不只是用户自身的判断,还有舆论环境乃至社会生活的运行秩序。

为AI打造“食品安全体系”,已经不是技术选择题,而是现实必答题。否则,再聪明的AI,也难免被“喂坏”。

加载中...