伴随人工智能的兴起,人工智能的安全问题如影随形。5月21日,欧盟理事会批准了世界首部对人工智能进行全面监管的法案《人工智能法案》。同一天,第二届人工智能安全峰会在韩国首尔召开,包括OpenAI、微软、智谱AI等 ...
伴随人工智能的兴起,人工智能的安全问题如影随形。5月21日,欧盟理事会批准了世界首部对人工智能进行全面监管的法案《人工智能法案》。同一天,第二届人工智能安全峰会在韩国首尔召开,包括OpenAI、微软、智谱AI等全球16家公司共同签署前沿人工智能安全承诺。然而,目前的监管行动是否足以对抗风险,仍是各方疑问。 记者:在韩国开了一个人工智能的全球会议,您关注它的内容吗? 薛澜:对,我当然也关注。 记者:您最关注它的什么? 薛澜:一个是,首先这些国家对人工智能风险的认识,有些什么新的变化?另外关键在国际合作机制这方面,大家有什么新的建议。 薛澜,清华大学苏世民书院院长、人工智能国际治理研究院院长,长期致力于人工智能国际治理重大理论问题及政策需求开展的研究。 薛澜:对人工智能这个新技术的发展,我觉得国际社会这一点是有共识的,它可能会带来一些风险,大家需要共同合作采取措施,来对它风险防控。 人工智能,英文缩写为AI,是一种由人制造出来的机器,这种机器可以模拟人的思想和行为,从而体现出一种智能反应。 网络时代下,不知不觉间,人工智能走进人们的生活。从小爱同学到SIRI到小度,再到第一个击败人类职业棋手的人工智能机器人阿尔法狗,AI呈现出快速进化的趋势。 薛澜:举个例子,很多事情我们要去银行排队,那就是挺麻烦的事,现在因为有手机银行,而手机银行背后一个非常重要的工具其实是人脸识别、指纹识别等等,都要用人工智能技术。好比说我要去坐高铁,通过人脸识别技术让我很快就通过,这当然都是便利。 记者:你的工作或者说你的生活体验所及的人工智能的触角,你觉得是已经涵盖到方方面面,还是说这仅仅是露了一个头而已。 薛澜:其实我觉得人工智能技术在我们的社会当中,它的应用已经远远比我们想象广泛,我们社会很多的运行,包括日常开车觉得今天路上更加畅通,这个背后其实用大量的人工智能技术去调控整个红绿灯的交通体系,所以应该说人工智能技术的应用已经远远超出我们直接能看到的。 近一年来,以ChatGPT和Sora为代表的生成式AI横空出世,它们以具有庞大参数规模和深度学习的大模型为框架,通过海量的数据和强大的计算能力进行训练,实现对各种任务的高效处理。这让科学家担心:在不久的未来,人工智能技术会超越人类的智慧,甚至会反过来控制或毁灭人类。著名物理学家史蒂芬·霍金就曾发出警告——未来100年内,人工智能将比人类更为聪明,机器人将控制人类。他还与特斯拉CEO伊隆·马斯克共同发表公开信,呼吁人工智能的发展应该受到控制,否则人类可能陷入黑暗的未来。 记者:站在人类的层面上,意识到这样一个新的技术,有可能在哪些方面会让我们不安,才会在这种高级别引发重视? 薛澜:因为过去的各种科技,其实都还是人最后掌控这些技术的。人工智能的话,现在是有可能倒过来了,有可能它不受人控制,有可能它会反过来想要控制人类。 记者:您说人工智能最后会反噬人类这样一种观念,是建立在科学基础之上,还是建立在科幻的基础之上的一种推测。 薛澜:我想首先目前的所有人工智能技术都还是在人类社会掌控之内的,但是按照这个技术发展的方向,的确是有相当一部分科学家认为未来是有这种可能的,就是人工智能系统它会不受人类控制,它可能会超越人类控制。 在2024中关村论坛年会开幕式上,全球首个通用智能人“通通”亮相,并入选十大重大科技成果。爱干净、眼里有活儿、主动做家务、能记住是谁偷吃了苹果、会耍小脾气、会感到无聊、无聊时还会自己看电视……“通通”的问世,意味着通用人工智能雏形已成。通用人工智能是要让智能体像人一样,不仅能够独立感知环境、进行思考、作出决策、学习新技能、执行任务,还能够理解人类的情感。 薛澜:它的学习能力,进展迅速。今后慢慢可能这个界限就会比较模糊了,哪些能力是我们人类的。大家别忘了,我们的这个能力其实也是逐渐演进而成的,人工智能系统也是这样的。 在过去相当长的时间里,人工智能脱离人类掌控、反攻人类一直是科幻作品津津乐道的题材。在这些作品中,机器人不仅能独立思考,还能拥有和人一样的情感。电影《机械公敌》中,机器人曲解了“机器人三大安全法则”,认为人类间的战争将使得人类自我毁灭,遵照“保护人类”的法则,决定将所有人囚禁在家中。 薛澜:有的研究已经看到,某种程度系统已经有点能欺骗人了,这还是挺可怕的,如果这个系统能知道去有效地自我保护,欺骗人说我听你的话,但是最后它要实现它自己目标的时候,那它可能就会反过来控制人。 记者:但是我总是觉得机器是骗不了人的,一定是掌控机器的人想做到这样的一个事情。 薛澜:这是我们原来传统的看法,我觉得至少这是很多技术专家,认为不排除它会有这个能力的。在差不多一两个月以前,我们在颐和园外面一个酒店开会,讨论人工智能发展的时候,国际上很多专家在一起,当时讨论有几条红线,这几条红线之一就是我们要保证,让这个系统不能产生这种欺骗的能力,我们要设立一些红线,到这个地方就为止了,不要再往前走了。 如果说机器人反噬人类还只是对未来的一种担忧,那么在当下的现实生活中,尤其在金融领域以及个人隐私保护方面,人工智能带来的风险已经变成现实。 薛澜:因为我们现在已经看到,各种在网上通过这种人工智能技术,可能包括换脸或其他一些方式,给不同的人带来这种困扰。 不久前,香港一家跨国公司的员工在多位高管参加的视频会议中,接受指令将2亿港币转到不知名账户,5天之后才发现被骗了。香港警方在通报中称,以往的AI换脸诈骗,一般都是一对一的。这次骗子用视频电话会议的形式,伪造了一个高管团队,让可信度大幅上升。参与视频会议的都是真人,然后通过人工智能换脸,把骗子的脸和声音都换成了对应的高管的脸和嗓音,下达了转账的指令。 薛澜:现在通过图灵测试,已经不是难事了,甚至于可能进行网络的攻击等等,这些如果有了人工智能技术,可能使得它的这种攻击的欺骗性更强,带来的危害更大。 图灵测试,是被称作计算机科学之父的艾伦·麦席森·图灵,在上世纪50年代提出的一个理论——当一个自然人和一台机器进行对话,在经过很多轮对话之后,如果自然人仍然搞不清对方是人还是机器,那么机器就通过了图灵测试,具备了与自然人相似或无法区分的智能。如今,文字方面的图灵测试早已不是问题,随着Sora等软件的诞生,对于一个图片或者一段视频,到底是AI制造的,还是人产生的,两者之间的差异也越来越难以辨别。 薛澜:人工智能系统它有创造力,因为我刚看到Sora,当然后来有的专家说它实际上还是学习的东西,不是它去创造的。但是我觉得不管怎么说,一旦你到了这一步,它有大量的东西以后,创造和记忆之间的界限就模糊了,就像熟读唐诗三百首,不会学诗也会偷,你自然而然就会从大量的语料当中调出来,那我觉得我们人类创造性的某些方面,不排除人工智能系统有这种能力的。 今年初,美国流行歌星泰勒·斯威夫特的AI不雅照在网上疯传,数百万人在社交媒体上看到了这些照片,美国白宫对此表示“担忧”,并敦促美国国会立法打击此类行为。 薛澜:我们研究科技政策的人都非常知道,这是双刃剑,它在造福人类的时候,往往也可能会给人类带来各种风险影响,我们在推进它创新的时候,也要关注它的治理,所以这两个轮子永远都必须同时去推进。 上周,AI首尔峰会召开前夕,大会发布了一份名为《关于先进人工智能安全性的国际科学报告》。报告称,尽管通用AI可以用来推进公共利益,但也可能被用来造成危害,甚至带来系统性风险。AI的未来充满不确定性,但社会和政府的决策将显著影响其未来。包括美国、法国、中国、韩国以及阿联酋在内的16家全球领先的科技公司在峰会期间作出的“前沿AI安全承诺”包含了一个重要条款——如果缓解措施无法将人工智能的风险控制在阈值以下,则根本不开发或部署模型或系统。 记者:当意识到有可能给未来带来一些风险的时候,我们放慢,甚至也许会停止,那谁来做出这个判断呢? 薛澜:我们需要国家和全球治理的机制来做出这个判断,所以像中国人工智能在2017年的新一代人工智能发展规划里面就明确提到了,我们在发展技术的同时,也要去建立相应的这种风险防范机制,现在全球在国际社会里面,大家也已经形成这样的共识,尽管我们的意识形态不同,我们的社会管理体制不同,我们治理体系不同,但是大家都认为我们需要坐在一起来讨论这些问题。 今天,越来越多的人坚信,人工智能已经成为人类第四次产业革命的核心驱动力。以蒸汽、机电和信息技术为基石的前三次产业革命深刻改变了人类文明的进程,而人类是否能够更好地应对人工智能产生的冲击,仍然充满不确定性。 记者:是不是每一次重大科学技术进步的降临,都会给人带来很大的不适,就像我们现在这样。 薛澜:我想我们过去这些年用到的很多技术的扩散速度,其实花的时间是很长的,几十年,甚至于上百年。但这次人工智能的技术,它有一个特点就是技术变革特别快,扩散特别快,所以像ChatGPT一出来,最短的时间用户达到上亿人次,这在过去可能是花多少年的时间,但它只花了短短的可能也就是几十天。 记者:为什么让人感到如此不安呢? 薛澜:我们往往会发现这个技术它在刚开始应用的时候,因为大家研究的就是怎么去造福人类,所以就会特别关注积极的一面。但还有一些风险,可能要过相当一段时间才逐渐展现出来,所以当技术变革这么快就应用到这么大范围,我们可能还没有充分认识到这个技术危害的时候,全社会已经在用了,已经对它产生依赖了。有可能等到我们认识到它的危害的时候,已经为时已晚。我们需要去提前采取谨慎的措施,它一旦出现,能够有办法应对。 发展和监管,是治理的一体两面。但人工智能技术的系统性和专业性,显然对治理能力形成新的挑战。 薛澜:我们提了一个概念,叫敏捷治理,就是技术发展得非常非常快,但是我的治理体系,我的改变,其实是很慢的,所以你技术发展那么快了,我这边好不容易形成了某一种治理方式,结果一发现,技术已经跑了,已经变成新的一个技术,原来讨论的方式一点用处都没有了,所以这时候传统的治理体系需要进行调整。 记者:我们怎么理解这个敏捷?就是出了一件事,我得很快速知道怎么去应对,比如说到治理的时候,往往都是说一些政府职能部门,或者说是相关的一些机构,但是我们的学习能力够吗?我们的治理能不能做到专业的水平,或者说我们能不能理解人家的专业? 薛澜:因为有的时候对人工智能下一步发展,到底有什么风险,企业也未见得那么清楚,政府可能就更不清楚。 记者:你说的企业是人工智能企业。 薛澜:就是开发人工智能技术的企业,所以在这种情况下,那怎么办呢?企业就告诉政府,说我现在要发展这个技术,会带来什么样巨大的后果。 记者:为什么要告诉政府? 薛澜:如果企业开发出什么技术,有一些什么风险,政府事先不知道,可能一上来就会非常严厉地规范治理,企业前面做出的各种努力就前功尽弃,付诸东流。但如果说政府和企业能够更好沟通,的确这个技术有很好的潜力,能够造福,但也可能有什么样的风险,可能政府就说我们共同讨论,什么是我们社会能够接受的风险程度,在这个之内,也许你可以更好地发展。 除了治理模式要改变,薛澜同时希望,全社会的每一个人都尽量参与到AI的风险防范和治理当中。 记者:那就涉及一个问题,政府的理解,政府的学习能力。 薛澜:对,所以这一点我觉得不光是政府,我们整个社会都要去更好地认识人工智能这个技术,因为这里面涉及很多利弊的权衡。大家要是都认识到这个问题,这种利弊权衡,我们把它通过合理的方式反映出来,可能政府在做这些决策的时候,不是以个人的利弊权衡作为依据,而是以社会公众的利弊权衡作为依据,那这样是不是就能更好地反映我们社会的利益呢? 过去一年,薛澜观察到,各国对人工智能全球治理的宏观原则存在基本共识,但主要经济体还没有进入到就人工智能全球治理的具体措施进行充分、深入交流的阶段。 薛澜:但目前看的话,具体怎么做,其实大家还是有不同的看法,不同的做法的,但是能不能建立一个比较全面的、可行的一个治理机制,目前还是一个需要进一步努力的方向。 记者:在人工智能到来的当下,治理就相当于在走钢丝,又要过,又要平衡,还不能掉下去。 薛澜:发展和治理一定是并行的,两个轮子一起转才能够真正健康发展。 文章来源:湖南日报 |