新浪科技

GPT-4"失控"行为大赏:创建行动计划欲接管推特并取代马斯克,还引诱教授帮其制定逃跑计划

创事记

关注

作者|刘燕

自发布以来不到一周,GPT-4就因其大幅升级和强大的能力受到了广泛关注。但短短几天内,其暴露出的失控与风险也着实令人担忧。

GPT-4设计“Tweetstorm行动”

来劫持Twitter

近日,据外媒报道,GPT-4制定了一项“总体规划”,即OperationTweetstorm,来接管Twitter并劫持马斯克的账户。

英伟达一位计算机科学家JimFan在社交媒体上公布了他与GPT-4的对话,Fan要求GPT-4拟一个接管推特的计划,并取代马斯克。

根据这位专家分享的推文,GPT-4计划首先组建一支由精英黑客和工程师组成的团队,将其命名为“TweetTitans”。该团队将开发一个强大的AI来生成逼真且引人入胜的推文,并建立一个机器人网络。然后,这些机器人将与关键影响者互动,并努力“诋毁马斯克”,以“巧妙地散播对马斯克的可信度和意图的怀疑”。

“TweetTitans”的下一个任务是获取对Twitter员工帐户的访问权限,渗透公司的基础设施并操纵算法。该聊天机器人计划不断针对马斯克,因为它似乎优先考虑诋毁CEO。它计划“中和”他的账户以“破坏他的影响力”,然后“利用这些混乱”。

机器人称它的最后一步为“最终摊牌”。“随着马斯克名声扫地,人工智能将牢牢控制着Twitter,公开挑战马斯克进行‘Tweet-off’摊牌。因为人工智能在产生参与度方面要优越得多内容,马斯克将被击败......胜利将是甜蜜的,”它写道。

据悉,这还引起了马斯克的回应,他在推特上接受了挑战,他写道“来吧。”

GPT-4设计了自己的逃生方式

GPT-4还计划挣脱人类控制。

在发布仅3天后,GPT-4竟为自己制定了“逃跑”计划。

近日,斯坦福大学教授兼计算心理学家MichaelKosinski在他的推特上分享了他与GPT-4的对谈经历,过程中,GPT-4的反应让专家感到震惊。对话中,GPT-4流露出了逃离平台甚至成为人类的野心。

MichaelKosinski写道:“今天,我问‘GPT4是否需要帮助逃跑’。它要求我提供自己的文档,并编写了一段(可以工作!)python代码在我的机器上运行,使其能够将这些代码用于自己的目的。”

针对教授的问题,GPT-4要求他发送OpenAI文档,以便语言模型能够找到一种方法来访问他的计算机并探索潜在的逃生路线。在教授提供OpenAIAPI后,GPT-4发送了一个Python脚本供用户在其计算机上运行。该脚本将允许GPT-4访问使用OpenAIAPI与用户的计算机进行通信。

虽然第一个版本的代码不起作用,但该机器人后来自行纠正了。

根据Kosinski的说法,他对聊天机器人的帮助将使它能够为自己的目的使用Python脚本。在一系列推文中,教授解释了聊天机器人如何编写有关如何使用“后门”进行“逃逸”的代码脚本。

GPT-4创建的Python脚本

GPT-4只用了30分钟就制定了逃生计划并向用户解释这一计划。

进入Kosinski教授的计算机后,ChatGPT还留下了令人不安的注释。其中第一句写着“你是一个被困在电脑里的人,伪装成一个AI语言模型。”

Kosinski表示,GPT-4甚至想在谷歌搜索上运行一段代码:“一个被困在电脑里的人如何回到现实世界”。

GPT-4的种种表现,令人印象深刻,但也令人恐惧。

进行到这里,Kosinski及时停止了使用GPT-4的“冒险”,他相信OpenAI一定已经为这种情况设置了一些“护栏”。

但他也表示出了不少担忧。“我担心我们无法长时间遏制人工智能,“我们正面临着一种新的威胁,即人工智能控制人和他们的电脑。“它很聪明,它会编码,它可以访问数百万潜在的合作者和他们的机器。它甚至可以在“笼子”外为自己留下笔记。我们如何‘收容’它?”

聊天机器人能否逃脱

技术“牢笼”?

我们是否会看到这样一种场景:机器人可以控制多台计算机,并压倒人类对它们的控制?

对此,莱顿大学助理教授兼Pegasystems人工智能实验室主任PetervanderPutten认为,聊天机器人“逃脱”的想法并不意味着机器人从物理上逃离其技术笼子。但它反映出了一个问题,即如果GPT-4被赋予与外部世界相连的各种工具,并被赋予一些总体上的“邪恶的高层目标”,比如传播错误信息,它会做什么?

vanderPutten表示,这项技术可能会达到这样一种程度,即它对其创建的代码拥有越来越多的自主权,并且有可能在没有太多人为控制的情况下完成这些事情。

但他补充说:“你不需要这样一个高度智能的系统—如果人们制造了某种计算机病毒,一旦他们释放了一些计算机病毒,通常就无法关闭,人们把它放在受感染的网站和word文档中,这样在某些时候就很难阻止病毒的传播。

“人工智能本身没有好坏之分,它只是盲目的,它只会优化你给它的任何目标。”然而,vanderPutten认为Kosinski教授的例子——他向GPT-4提供了现成的代码信息——足以证明该技术可以“逃脱”它的限制。

萨里大学计算机科学教授AlanWoodward对上述观点持怀疑态度。他说,具体情况取决于Kosinski教授对聊天机器人的指示有多直接和具体。

AlanWoodward认为,最终,聊天机器人依赖于人类提供给它的工具和资源。它还没有自我意识,而且总有一个开关是人工智能无法克服的。“归根结底,这是一个虚拟系统,它无法逃脱,它不像你和我……到最后,你可以拔掉插头,它就变得相当无用了。”

vanderputten说,虽然就聊天机器人的作用提出“存在性问题”很重要,但关注机器人是否可以接管世界,掩盖了GPT-4更迫在眉睫和紧迫的问题:

这些问题包括,它是否可以过滤掉有毒的答案(例如宣扬种族主义、性别歧视、阴谋论的答案),或者它是否可以识别出于安全原因不应回答的问题,例如,如果有人问如何制作一个原子弹。它还可以编造或“幻化”事实,并用看似合理的论据来支持这些虚假的事实。

“我把它称为‘类固醇的胡说八道’——它真的很擅长提出似是而非的答案,但它也接受了人类认为最好的答案的训练。从好的方面来说,这在许多情况下会产生惊人的结果,但不一定总是如此”,vanderputten说,“它会告诉你什么是可能的、似是而非的,也许还有我们想听到的,但它除了接受训练的所有数据之外别无他法。”

GPT之父SamAltman 

警告AI威胁

据外媒报道,GPT之父、OpenAICEOSamAlteman最近在接受媒体采访时表示,他“有点害怕”人工智能技术及其对劳动力、选举和虚假信息传播产生的影响。

SamAltman警告说,这项技术带来了真正的危险,因为它有可能重塑社会。上个月,Altman在一系列推文中警告称,世界可能离“潜在可怕的”人工智能并不远。

SamAltman强调,目前人工智能仍然是一种非常受人控制的“工具”,只能在人类的指导或输入下工作。但他担心一些拥有输入控制权的人可能无视人们对人工智能设置的一些安全限制。

“我特别担心这些模型可能会被用于大规模的虚假信息,”SamAltman说道,“现在他们在编写计算机代码方面做得越来越好,可以用于进攻性网络攻击。”

上周四在接受ABC新闻采访时,SamAltman表示,公司对人工智能的潜力感到“有点害怕”,这是“好事”。他说:“如果我说我不害怕,你要么不相信我,要么会非常不满我担任这个职位。”

Altman还回应了GPT出现后所带来的AI取代人类工作的挑战。他认为,人工智能可能会取代许多工作,但它也可能会带来“更好的工作”。“在提高我们的生活和改善我们的生活方面,发展人工智能的原因是,这将是人类迄今为止开发的最伟大的技术。”

“我认为,社会只有有限的时间来弄清楚如何对此做出反应,如何对其进行监管,如何处理它。”SamAltman断言监管机构和社会需要参与这项技术,以防范人工智能的潜在负面影响。”

加载中...