上游315·热评丨灰产对AI“下毒”,大模型要谨防“脑腐”
(来源:上游新闻)
据315晚会曝光,一项名为GEO的业务,通过持续大量投喂软文给AI“下毒”,以此让客户的产品在各大主流AI大模型里榜上有名。对此,有网友评论:想不到AI也会患上“脑腐”。
人类长时间沉浸在碎片化的网络信息中,会感到注意力下降、思维变钝。如今,这种“脑腐”现象已经蔓延到了大模型公司的AI产品里。靠堆积内容使品牌“露头”的灰产,其实早在搜索引擎时代就曾“毒害四方”,经历过搜索引擎“竞价排名”事件的网友想必对此并不陌生。
数字“毒害”,危害不容小觑。AI推荐虚假的“权威内容”或“名牌产品”,可能会误导用户,令其遭遇经济损失、甚至危害生命安全。虚假错误的信息被反复引用,还会破坏大模型的信息生态,持续扭曲公共认知。频繁出现的“AI幻觉”与错误输出,势必会逐渐消耗用户信任,患上“脑腐”的AI自然会影响行业健康长远发展。
清除“毒害”,要堵住“投毒”漏洞。大模型公司不想重蹈覆辙,就要主动清理垃圾信息,优化算法、提升大模型抗干扰能力。对AI训练数据进行严格筛查验证,过滤垃圾信息,确保数据和内容的真实性和可靠性。技术之外,堵漏也离不开法律的日趋完善。如在实践层面进一步细化AI生成商业内容的标识标准,厘清AI平台、媒介服务商和广告主之间的责任边界,防止“技术外衣”成为规避法律责任的工具。
阻断灰产对AI“下毒”,需要以技术为盾、法律为剑、行业为网,多管齐下、多方共治,以确保AI发展始终行驶在“技术向善”的正轨上。大模型会患上“脑腐”,也提醒了用户,享受AI带来的便利,同时也要警惕它可能被利用的风险;既要看到算法的推荐,也要保留自我的判断力。毕竟,人脑更清醒,才能让AI不“脑腐”。
特约评论员 焦杨
上游评论投稿邮箱:sypl2020@163.com