打造完美“华智冰”需先解决这些问题
法人杂志
中国首个虚拟学生华智冰“入学”清华大学
《法人》全媒体记者 姚瑶
近日,一名女生在清华大学校园中漫步的视频引发关注。视频中的女生名叫“华智冰”,是一名人工智能虚拟学生。作为我国首个原创虚拟学生,“华智冰”将入学清华大学计算机系,师从清华大学教授唐杰,开启在清华大学的学习和研究生涯。
对于人工智能“实体化”的问题,唐杰在“华智冰”成果发布会的会后对《法人》记者表示,人工智能“实体化”是一个比较有争议的话题,人们对于“实体化”究竟能为AI带来多少智力上的改变看法不一。
清华大学计算机系副教授刘知远也表示,人工智能“实体化”在未来会是一个重要话题,不过“华智冰”目前不涉及太多伦理问题,研发团队会严格限制她与公众交互的内容和形式。
与“人形”相比,AI更重视“功能”
6月15日,记者从清华大学计算机系“华智冰”成果发布会上了解到,视频中“华智冰”的形象为真人模拟拍摄,实际为数字虚拟人,目前没有实体。研发团队通过计算机建模并根据具体需要,对她身体各部位进行了重构、着色渲染,又通过不同算法实现不同动作。目前,“华智冰”已具备作诗、作曲、做考题的能力,但还没有达到人类的最高水平。
会后,关于“华智冰”是否在将来会“实体化”的问题,唐杰告诉记者,“我们一直在探讨‘华智冰’是否需要‘实体化’,但还没有得出百分百的结论。我们尝试制作了一些实体,但很多人认为这并不代表她是一个真正意义上的实体机器人。”
“现在实体机器人已经在很多酒店、餐厅普及,我预计十几年后会在更多场景普及。当然,完全类似于人的实体机器人未来也会有很多,但‘人形’并不是终极目标,我们需要的更多是‘功能’”。唐杰表示。
人工智能是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门技术科学。这一概念在1956年被提出,中国人工智能起步较晚,萌芽于上世纪70年代末。近年来,随着互联网的蓬勃发展及技术的创新和应用,中国人工智能进入快速发展期。
艾媒咨询数据显示,2020年人工智能行业核心产业市场规模超过1500亿元,预计在2025年将超过4000亿元。生产/制造是应用人工智能技术感知最强的环节,占比达57.3%。交通场景和医疗场景是受访网民最常接触人工智能应用场景,分别占比45.2%和40.5%。
艾媒咨询分析师认为,在生产制造业中,人工智能技术极大地提高了生产效率,提高企业高质量的生产服务。中国人工智能产业在各方的共同推动下进入爆发式增长阶段,市场发展潜力巨大,未来中国有望发展为全球最大的人工智能市场。未来人工智能的应用场景范围将持续扩大,深度渗透到各个领域。
机器人或将替代人类工作
在人工智能运用更加广泛的背后,似乎也存在着某种隐患。
此前,记者曾采访“小i机器人”创始人、董事长兼CEO袁辉,他告诉记者,很多人工智能企业的终极目标是打造出一个“人”,它或许看上去和人类没有区别,而且拥有自己的大脑和思维能力。
2020年9月,在一档名为《叩响明天》的节目中,EX机器人实验室对艺人蔡徐坤进行了人脸、声音等数据采集,通过利用三维建模、3D打印等技术手段,做出其原型和内部骨骼结构,又利用机械臂将内部骨骼与外部皮肤进行组装,成功做出仿生机器人“机器坤”。
“机器坤”不仅外形极其逼真,连说话的声音和语气也同蔡徐坤极为相像,在蔡徐坤本人初次看到时也惊叹不已。而后蔡徐坤与“机器坤”进行交流,沟通十分顺畅。
这看上去似乎满足了人类打造“完美机器人”的梦想,如果得以实现,它不但可以服务生活,还可以满足人类的精神追求。它可以是“蔡徐坤”,也可以是优秀的司机、厨师,还能成为“完美男女朋友”。但这是否意味着“完美机器人”将替代人类?
“反思一下,从晨起到日落,我们的生活是否每天像机器一样运行?”袁辉认为,若机器人时代来临,重复性、机械性强的工作将首先被替代。“是人类自己打开了潘多拉的盒子,”袁辉说,“人类最可怕同时也是最伟大的地方,便是想实现什么,就一定要实现什么。”
从某种角度来看,的确是这样,人类想随时与他人沟通交流,发明了手机;人类想要探索月球,多年前实现登月;人类想上火星一探究竟,又实现了火星探测......随着人类对人工智能领域的不断探索,或许比人类更聪明的机器人也会到来。
人类一边期盼着有一天同机器人无障碍交流,一边又担心它将替代人类本身。兴奋、期待的同时夹杂着某种担心,人工智能便在这样复杂、矛盾的情感中不断发展。
在“华智冰”的成果发布会上,记者曾向研发团队提出疑问,从社会伦理角度看,“华智冰”等人工智能是否存在隐患?应如何规避?清华大学计算机系副教授刘知远表示,清华大学法学院计算法学有很多相关探讨,这在未来会是一个重要话题,不过“华智冰”目前不涉及太多伦理问题,团队会严格限制她与公众交互的内容和形式。刘知远表示,“我们当然期待华智冰的智能未来达到一定程度,让我们开始探讨她可能存在的伦理问题,不过这是几年之后要探讨的事情。”
唐杰告诉记者,AI主体思维更强调人工智能的“大脑”。随着时间的推移,“华智冰”会在新场景学到新能力,变得越来“聪明”。
人工智能领域应如何监管?
在不少科幻影片中,机器人产生自我意识后,不再甘心充当人类的工具,它们与人类的关系充满了“火药味”。颇具先觉意识的人类在经过对后果的一系列设想后,开始感到担心并产生疑问:人工智能探索的界限在哪里?从法律角度看,应如何监管人工智能行业?
2016年12月,标准制定组织IEEE发布《合伦理设计:利用人工智能和自主系统(AI/AS)最大化人类福祉的愿景(第一版)》,旨在鼓励科技人员在AI研发过程中,优先考虑伦理问题。报告指出,AI发展的一般性原则将适用于所有类型的人工智能和自主系统。在确定一般原则时,主要考虑三大因素:体现人权;优先考虑最大化对人类和自然环境的好处;削弱人工智能的风险和负面影响。
2017年7月,中国发布《新一代人工智能发展规划》,指出人工智能发展的不确定性将带来新挑战。人工智能是影响面广的颠覆性技术,可能带来改变就业结构、冲击法律与社会伦理、侵犯个人隐私、挑战国际关系准则等问题,将对政府管理、经济安全和社会稳定乃至全球治理产生深远影响。在大力发展人工智能的同时,必须高度重视可能带来的安全风险挑战,加强前瞻预防与约束引导,最大限度降低风险,确保人工智能安全、可靠、可控发展。
南京邮电大学教授、工业和信息化部信息通信经济专家委员会委员王春晖曾在《人工智能的伦理、法律与监管》一文中分析,人工智能和自主系统(AI/AS)带来了许多复杂的伦理问题,这些伦理问题往往直接转化为具体的法律挑战,或是引发复杂的连带法律问题。
王春晖认为,AI在其发展进程中面临的最大问题不是技术本身,而是AI的伦理和法律问题。我国应当建立健全公开透明的人工智能监管体系,重点应当在AI的设计问责和应用监督并重的双层监管结构上做充分准备,实现对人工智能算法设计、产品开发和成果应用等的全过程监管。促进人工智能行业和企业自律,切实加强AI协同一体化的管理体系,加大对AI领域数据滥用、算法陷阱、侵犯个人隐私、违背道德伦理等行为的惩戒力度。
在人工智能技术研发的同时,要加强人工智能相关法律、伦理和社会问题的同步研究,尤其要关注AI模仿人类传播错误信息或将商业无人机转化为目标武器攻击人类,建立和优化保障人工智能健康发展的法律法规和伦理道德框架。法律研究领域要开展与人工智能应用相关的民事与刑事责任确认、隐私和产权保护、机器伦理与破坏力评价等伦理与法律问题的交叉研究,建立AI的可追溯和问责制度,明确AI的设计者、控制者、使用者等相关法律主体的权利、义务和责任。
王春晖呼吁,AI的算法必须确立法律的可追溯性原则,AI的行为决策全程应当处于法律监管之下。