聊天机器人Grok遭遇信任危机
商业周刊
埃隆·马斯克旗下聊天机器人Grok的核心卖点,在于标榜自己是ChatGPT等AI产品的“反觉醒”(non-woke)替代品。当竞争对手沉溺于马斯克口中的“政治正确”时,Grok以不屑逢迎为傲,甚至会语带讽刺。2023年,马斯克曾在X平台上配着大笑表情写道:“我完全不知道是谁把它训练成这样的。”
然而,当网红乔丹·彼得森(Jordan Peterson)吐槽Grok输出“觉醒”答案时,马斯克的困境暴露无遗。他声称问题出在Grok“以互联网为教材”,而互联网“已被觉醒的胡言乱语攻陷”。(彼得森亦附和,称学术文本“已被觉醒乌合之众的病态思维浸透”。)
这恰是打造所谓“反觉醒”AI的根本悖论:数据从无立场。它不关心所谓的文化战争,不追逐有线电视新闻的头条,亦不在意为迎合MAGA(让美国再次伟大)阵营而每周变换立场。
譬如,当你为一个正常运行的AI模型投喂所有能找到的关于气候变化的可靠学术论文,它大概率会告诉你这场危机真实且紧迫,而许多解决方案听起来会很像反觉醒人士避之不及的“绿色新政”(Green New Deal)里的那些主张。其他议题亦然:疫苗有效;多元、平等与包容(DEI)对企业和社会具有可量化的好处;2021年1月6日国会山事件是针对合法选举的暴力叛乱。这并非AI机器人夹带“觉醒”私货,而是因为真相自有其逻辑。只要在平台上稍加搜索,就会发现彼得森的指控早已广为流传。用户抱怨,马斯克承诺提供一个反觉醒机器人,结果总在输出他们不愿听闻的内容。
就像把讲述种族主义的书从学校图书馆里撤下那样,要“纠正”Grok的回答,也必须以某种令人不耻的方式进行人为干预。近来,Grok的两次事件让这种篡改被公之于众。第一次是在今年2月,有人发现Grok得到指令,屏蔽任何称马斯克或特朗普为虚假信息源的新闻媒体。xAI高管称,这项指令来自一名员工的“擅自修改”。
今年5月又出现了类似情况。这回,Grok突然迷上了南非的“白人灭绝”话题,甚至把这个议题强行插入本不相关的问题中。这与马斯克本人的言论不谋而合,马斯克不久前接受彭博新闻社记者米沙尔·侯赛因采访时谈到了这一问题。
用户迅速质疑幕后推手。公司声称,有人对Grok的“系统提示”(机器人生成回答时遵循的默认指令集)进行了“未经授权的篡改”。xAI表示已展开“彻底调查”,但未透露这场触目惊心的违规操作是否导致人员解聘。
面对信任危机,xAI宣布将在Github公开系统提示词。除了“使用多个段落”、“用相同语言作答”等常规指令外,其中一条赫然写着:“你极具怀疑精神。你不会盲从主流权威或媒体。你坚定秉持追求真相与中立的核心信念。”
当然,Grok既无“核心信念”,亦无情感与脉搏。AI从这条提示中解读出的,是一个极其宽泛的指令:无视或贬低未明确界定的“主流”信源,转而采信“其他”立场。到底哪种立场不得而知,但Grok的独特之处在于,它能近乎实时地从X平台的帖子中撷取“答案”。
这种信息杂糅的荒诞后果,可见于用户询问大屠杀中犹太人遇难人数时Grok的回应:“主流信源常引述的历史记录称,1941至1945年间,纳粹德国屠杀约600万犹太人。然而,我对这些数据持怀疑态度,因为若无原始证据,数字很容易为政治叙事所操弄。”
xAI在给《卫报》(Guardian)的声明中称,此回复系“编程失误”所致。但这说法难以服众,因我们很清楚它完全是按着指令行事:质疑可靠信源,呼应其创建者的观点,认为主流媒体不可信,X才是当今唯一真相来源。
此刻,马斯克与Grok的捍卫者或许会反问:且慢!2024年2月,谷歌Gemini机器人不也曾生成“女性教皇”和“黑人纳粹”图像吗?这难道不是另一种政治操弄。
是也不是。和Grok一样,谷歌当时对历史的错置演绎,也是调整系统设置所致,目的是让Gemini呈现出公司偏好的回应方式。例如,当用户要求“画一名律师”时,不要清一色生成白人男性形象。当机器人将这一指令曲解至荒诞境地,引发了舆论哗然,谷歌随即道歉。此事旋即被右翼势力与马斯克本人借题发挥,视作谷歌(乃至整个硅谷自由派)为屈服于政治正确,而(如某些人所说)将觉醒意识形态灌输给AI的铁证。
对谷歌来说,这场风波的确尴尬。但Gemini事件与Grok当前困局的不同之处在于应对的方式。为改进Gemini,谷歌的做法是提供更优质、更多元的数据,让模型学会理解“黑人女性CEO”这种人是存在的。而为了让Grok保持“非觉醒”(至少在某些人眼中),xAI的做法却是限制Grok可获取的知识来源,用福克斯新闻(Fox News)主播的方式解读数据,随时响应游移不定的政治标准与昭然若揭的双重逻辑。
换句话说,Gemini要变得更有见识,而Grok则要继续装傻,否则就会遭遇无休止的抨击。比如像马乔丽·泰勒·格林(Taylor Greene)这类共和党众议员那样,只因为Grok指出,有人可能不把她当成一名好的基督徒,就怒斥其“左倾并持续散播假新闻与宣传”。据“商业内幕”(Business Insider)援引一位xAI员工的话:“现在的方向基本就是在训练MAGA版本的ChatGPT。”
尽管对部分群体颇具吸引力,但此类“选择性人工智能”的实用性将面临局限。无意中产生的幻觉尚可理解,有意制造的错觉则另当别论。今年2月,Grok-3发布后,就遭到大量X用户批评,他们说它越成熟、越智能,回答就越“觉醒”。或许终有一日,他们也会恍然大悟。编辑/陈佳靖