对话院士邬江兴:如今的大模型,100%不安全且不可信! 丨 WeTalk
文 丨 新浪财经 周文猛
当前,全球各大企业均在以前所未有的热情拥抱AI,但与AI伴生的安全问题,正引发更多担忧。
近日,邬江兴告诉新浪财经《WeTalk》栏目,“不是90%的大模型不可信,而是100%的大模型都不安全、不可信”。他建议人们不要只相信单一大模型,而是“要相同的问题,多问几个模型”。
他指出,每一个模型都是相对可信,但都存在缺陷,“你要想它没缺陷,这个是不科学的”。
以下为《WeTalk》与邬江兴对话部分内容:
“100%大模型不可信,不要信任何一个大模型”
新浪财经:你们之前测试表明,90%的大模型都不可信任,现在这个结果有没有一些改进了?可信度提升了吗?
邬江兴:不是90%不可信,是100%都是不安全的,它没有绝对的安全,100%都是不可信的。
它要通过必要多样性去表达,通过相对可信,而不是去追求绝对可信,绝对可信是没有的。所以每一个模型都是相对可信,都是存在缺陷,你要想它没缺陷,这个是不科学的。但是我可以用这些带有缺陷的模型,按照内生安全构造构成一个相对可信的环境,他得到的结论,就要比大多数模型可信得多。
所以说以后人工智能应用的时候,你们千万不要说我只用一个文心一言,用一个豆包等。把问题多问几个模型,然后你自己来处理。当然,如果是内生安全的系统,我们自动可以来给你处理。
一个人,兼听则明,偏信则暗。道理是一样,不要去信某一个模型,可以有多几个模型,同一个问题向几个模型一起问,然后他们里面共同的一部分是可信的,不同的部分你要判断。
“用AI解决AI安全问题,这是个伪命题”
新浪财经:您之前提过AI存在“三不可”问题,那该如何让AI更可用呢?
邬江兴:AI运行不能去靠某一个大模型,不能是必要的关系,应该有多个大模型,然后让他们按照内生安全的构造连接起来,有相对正确的工艺,有所谓的共识机制,让我们可以来判断。也就是当一个数据输入时,多个模型因为存在共识机制,所以肯定不会办指鹿为马的事,如果有个模型真的出来指鹿为马了,其他模型也可以判断出它是指鹿为马,不会让我们以为这就是马。
控制论的第一性原理叫必要多样性,没有必要多样性就没有稳定的控制,每一种单一的东西都可能是不完美的,哥德尔不完全性定理同样指出,任意一个包含一阶谓词逻辑与初等数论的形式系统,既不能被证明为真也不能被证明为否,也就是说我们想用AI去解决AI的安全问题,都会是个伪命题。
我现在的解决方法是什么?我可以用多个AI模型,因为他们存在价值对齐,所以他不能胡说八道,各个模型中间会有很多多样性和特殊性,因为利用了这些多样性和特殊性,也就知道你攻击了哪个模型,同时其他模型也不会受到影响。就是说你想一枪打多只鸟的可能性没有了,这样的话就极大地提高了应用系统给出结论的安全性。
“闭源的单一模型,一定是不安全的”
新浪财经:这是否也意味着,一些商业机构说自己的模型是闭源的,所以更先进,这其实是个伪命题呢?
邬江兴:这一定是有问题的,单一性一定是有问题的,闭源带来不了安全性,因为他如果遭到破坏,单一的破坏就可能造成全部破坏,而当我们说必要多样性时,你能破坏A的时候,你不可能同时破坏B、C、D。
物理世界的统一性和物质世界的多样性是怎么表达的?他要求的是生物多样性,也就是说某种生物可能会在某种灾难后消失掉,但由于生物的必要多样性,能保证整个地球生物的生态不会因为某个物种的消失而完蛋,但如果是一个同质化的物种,很可能在未来的演化和进化过程中,遭遇不测的时候就灭绝了。
新浪财经:类似于群策群力、人多力量大?
邬江兴:开源不光是群策群力,他还有多种多样性。我们现在搞AI的人,总是想办法把一个AI搞得安全,在理论上这是不成立的,没有绝对安全的东西,只有相对安全。
新浪财经:您之前提出了一个多样动态异构冗余架构,这是您理念的具体载体吗?
邬江兴:这是一个设计结构,就像我们的可靠性系统中,它要求你设计成主备或者是动态备份和静态备份,这个动态异构冗余是指你的一个信息系统或者一个大模型系统,你要把它设计成这样的一个架构,来按照这个架构就能得到安全性,它现在是一个框架的形式。