新浪财经 产经

阿米尔·侯赛因:AI不会毁灭人类 但会影响就业和军事

界面新闻

关注

【专访】阿米尔·侯赛因:AI的真正危险不是毁灭人类,而在就业和军事方面

不管我们是否做好了准备,人工智能时代已经来临。它到底会给我们的社会带来怎么样的机遇和挑战?它是给人类带来巨大福祉的超级力量还是毁灭人类的终结者?我们要不遗余力地发展还是谨慎地有条件限制?

最新出版的《终级智能》一书对这些问题提出了自己的回答。作者阿米尔·侯赛因是IBM“沃森”认知计算平台顾问,也是一位发明家、计算机科学家和企业家。他拥有22项美国发明专利以及40多项申请中的专利,曾多次参加西南偏南大会(SXSW)以及其他涉及国防、网络安全、计算机科学、能源和环境等话题的会议,创办了SparkCognition公司并担任CEO。在《终极智能》中,侯赛因讲述了人工智能技术与应用的当下状况、近期发展和未来趋势,分析了人工智能对社会生产和生活的积极影响,也讨论了人工智能带来的风险,该书的中译本已由中信出版社出版。

在侯赛因的北京之行中,界面新闻记者对他进行了专访。和比尔·盖茨、埃隆·马斯克等知名人物的观点不同,侯赛因认为,人工智能对人类来说不是一种威胁,而是我们追求知识过程中的又一个阶梯,只有人工智能可以保护我们免受人工智能的伤害。

以下为采访全文:

界面新闻:您对人工智能技术的发展非常乐观,但是在历史上也曾经有过人工智能发展热潮,最终却并没有很重要的成果出现。您认为这次人工智能浪潮有什么不一样?

阿米尔·侯赛因:一个很大的区别是,之前的人工智能技术没有带来很好的经济成果,只是停留在科研和学术的层面,并没有产品化、商业化,所有的研发资金来自于大学、政府等。这次的人工智能研发资金能够自我持续,由商业资金投资,然后产出产品并带来相应的经济回报,再继续投入研发,带来技术和数据的提升,从而实现投入、产品化、再投入、再提升的良性循环。人工智能给很多公司带来巨大的经济回报,从而促使他们投入更多的研发资金,不再依赖于政府和科研基金。之前的人工智能浪潮从来没有到达自我持续的阶段。

界面新闻:除了商业模式和资金来源方面的变化,人工智能技术本身有什么大的突破?

阿米尔·侯赛因:最大的突破是,深度学习能够更有效地训练“网络”。深度学习能够突破的重要原因是,现在的电脑算力大大提升,能够运行大量的运算,而之前的电脑算力不够;第二个原因是,现在有足够多的数据可以用来计算,比如来自传感器、电脑和相机的大量数据,并且现在存储数据非常便宜,能够为发展深度学习提供支撑;当然,深度学习技术本身在算法上也有了很大进步。三者的结合共同促进了深度学习的突破。此外,在硬件上也有了很大进步,比如GPU(图形处理器)的发展,现在可以用一系列GPU很快的处理数据。上述几项在十年前、二十年前都不存在。我认为人工智能技术本身的突破固然重要,但是同样重要的是技术能够商业化,然后才能不依赖于政府性资金,从而快速发展。有些技术在实验室里非常炫目,但是不能够商业化,最后不了了之。比如VR(增强现实技术)现在只是在一些小的领域发展,并没有很大的突破。人工智能技术被像百度、商汤科技等大公司采用,为他们带来大量收入后被后续的投资进一步提升优化,所以我认为,技术本身的突破和大规模商业化应用都是人工智能发展的必备条件,两者缺一不可。

界面新闻:现在人们面对人工智能有兴奋,也有惶恐。比如有些法学家认为开发人工智能应该遵循一定的法律有条件地开发,也有很多人担心人工智能在被人类创造出来后有可能毁灭人类。您非常乐观,认为应该毫无保留地大力发展人工智能技术,为什么?

阿米尔·侯赛因:第一,人们害怕失去对人工智能的控制,因为担心像一些好莱坞大片描述的那样:人工智能将产生意识、具有超人类的力量,将会取代人类控制整个世界。事实上,我们现在的技术远没有达到那样先进的地步,人们的恐惧来源于并不存在的技术,更多的是对想象的恐惧,而不是现实。第二,现在引起的恐惧是假设人工智能有了意识之后,会有自己的目标,在实现自己的目标过程中不顾人类的遭遇,成为毁灭人类的恶魔。其实,恶魔只是人类的推测,根据人类历史推测,人工智能会出现像本拉登、希特勒之类的恶魔,这只是以人类的思维来推测人工智能,而人工智能并不是按人类的方式思考。第三,毁灭人类的技术已经存在,比如核技术,但是人类在利用核技术为人类社会的发展提供便利。人工智能也一样可为人类所用。目前为止,人工智能真正带来的危险不是毁灭人类,而是对就业的影响和军事方面的应用。

界面新闻:小布什总统在任职期间对基因和干细胞研究施加了限制,您是否认为对于人工智能研究施加类似的限制更能保证人工智能技术不对人类社会造成威胁?

阿米尔·侯赛因:当布什总统颁布禁令时,美国的技术领先,但是当在美国限制时,其他国家在大力投资,现在他们的技术要领先于美国。人工智能也一样,禁令并不能起到预期作用。就像我在书中所说的“囚徒困境”:当有禁令时,如果有的国家遵守,有的国家不遵守,遵守的国家会明显处于劣势,为了防止处于劣势,理性的国家都会选择继续发展人工智能,此时所有的国家都会意识到,如果使用人工智能武器将会遭到抵抗,反而能带来威慑与和平。人工智能的发展不可避免,与其禁止,不如加快提高人工智能的可解释性和安全性。

界面新闻:您能不能给我们具体的例子解释如何提高人工智能的可解释性和安全性?

阿米尔·侯赛因:深度学习通过算法对大量数据进行处理,至于如何处理,这对于大部分人来说是一个“黑盒子”,不知道如何运行。我们现在需要做的工作是增加算法运行的解释:如何运行以及为什么。比如,一个公用设施公司花费巨资购买的涡轮机,当自动监测系统发现异常时会给出停止运行涡轮机的指令,但是公司不会武断停止昂贵的机器,需要我们给出异常的具体情况及停止的理由。再比如人工智能在军事上的应用,当自动化武器把某个物体当作目标时,需要说明为什么该物体是攻击目标。我认为,当人工智能应用越来越广泛时,当人工智能涉及到昂贵设备的运行、生与死的问题、城市的力量和整个物质系统等重大问题时,加强人工智能的可解释性和安全性非常重要,将是人工智能接下来发展的前沿。

界面新闻:苹果公司CEO库克最近的演讲表示,为了提升AI而收集个人资料,并不是提升效率,而是懒惰。人工智能要尊重人类的价值观,包括保护个人隐私。您是否同意他的观点。

阿米尔·侯赛因:我想,对于现阶段的人工智能并不存在“人工智能尊重人类价值观”的说法,人工智能只是按照人类设定的规则运行,不是人工智能尊重人类价值观,而是人类应该尊重自己的价值观。我们存在的问题是,不尊重个人隐私可以赚很多钱,很多大公司通过尽可能多的搜集用户数据来获取利益,他们知道自己在干什么,但是他们知道这样做可以赚很多钱。

界面新闻:很多人关心能否用人工智能技术来寻找外星人,您认为可行吗?

阿米尔·侯赛因:我并知道是否存在外星人,但SETI(一项利用全球联网的计算机共同搜寻地外文明的科学实验计划)运行了很多年,我非常喜欢的科幻作者刘慈欣的小说《三体》中也讲述的是利用分析信号来搜寻外星文明的故事,利用人工智能技术当然可以帮助分析收集到的数据和信号、设定自动搜寻以及获取人们可能遗漏的信号。不过人工智能是我们已在地球上发明的“智能”,外星文明可能存在也可能不存在,更不知道外星文明能做什么,所以,我更关注如何利用人工智能来改变世界。

加载中...