9.9元教程“手搓”大尺度:AI造黄,到底是谁在“裸奔”?
央视网评
一张照片、9.9元的教程、几句隐晦的“提示词”,就能在几分钟内“手搓”出大尺度视频……近日,总台曝光的AI“造黄”产业链条,令人触目惊心。
从AI批量造谣,到语音合成、换脸诈骗,再到此次的“造黄”产业,犯罪形态各异,但都是AI时代下诈骗、淫秽等传统违法犯罪的工业化升级。这不能说是AI变坏了,而是“坏人”学会了用AI。
这种流水线式的运转,暴利是首要推手。巨大收益驱使不法分子铤而走险,“日入五位数”的诱惑更吸引大量受众入局。黑产团伙也日趋专业化:通过卖提示词提供“养料”,通过用英文单词替换敏感中文词、本地离线部署、境外平台分发等手段逃避监管,还通过“拉新返利”裂变扩张,形成可持续收割的利益链条。层层嵌套之下,是一个不断进化的黑产生态系统。
更加令人担忧的是,AI犯罪正精准捕猎未成年人和老年人群体。涉黄AI内容不再是静态的图片,而是24小时在线、量身定制的虚拟伴侣,通过提供观感刺激、情感慰藉,俘获那些防范意识和辨别能力较弱的人群。
随着AI技术从基础的聊天机器人,向更强大的智能体演进,相关作案手法也可能会跟着“更新换代”,未来很可能出现的跨模态、强交互式新型犯罪形态,当AI不仅能“说谎”,还能自主决策时,会给现有的网络安全防护系统带来前所未有的“大考”。
整治“AI造黄”黑产,须从内容和技术两端,全链条发力。首先,以超低价课程为诱饵、用超高收益承诺作为噱头的网络推广话术,以及评论区中潜藏的“毒种子”信息,暴露了网络平台在内容审核方面的巨大漏洞;AI提示词的过滤机制和视频生成内容审核存在明显缺陷,说明相关科技企业在大模型开发和优化层面,还有大量细致的工作要做。
其次,监管不能总跟在黑产后面跑。强制AI生成内容明确标注来源,重在落实、要动真格;更深一层,要对算法模型实行穿透式备案,从数据源头斩断“毒养料”,如此,平台才能真正筑牢抵御风险的第一道闸门。
当下,AI正与千行百业融合发展,绝不能带病“裸奔”,或“先污染后治理”。在算法和代码中划定红线,特别是将伦理准则嵌入技术研发全流程,以法律制度筑牢安全底线,建立分类分级的风险评估与监管机制,让算法可解释、数据可追溯、风险可防控,真正让 AI 在安全可控的轨道上创新发展。
主 编丨朱家顺
编 辑丨应凰 赵晋
审 校丨刘雅虹
来 源丨央视网