“人工智能不可能被一家公司、一个国家或一个机构垄断”

【文/观察者网 陈思佳】近年来,人工智能技术发展突飞猛进,人工智能产品正变得更加聪明、更加强大,逐渐给我们的日常生活带来改变。但与此同时,虚假信息、侵犯隐私、歧视等风险也开始显现,人工智能安全和治理成为世界各国面临的紧迫问题。

7月5日,2024世界人工智能大会“前沿人工智能安全和治理论坛”举行,多位国内专家以及来自法国、美国、新加坡等国的专家发表讲话,讨论了人工智能治理理念、人工智能监管的立法进程、人工智能的全球挑战、国际合作等问题。

然而,美国政府频繁鼓吹“美中竞争”,试图在技术领域打压中国,给国际合作带来困难。清华大学人工智能国际治理研究院院长薛澜提及,一些美国专家想要与中国合作需要提交报告,一些企业也担心因合作遭到制裁,“在这样一种环境下谈合作,我觉得很困难。”美国加州大学伯克利分校人类兼人工智能中心执行主任马克·尼兹伯格也坦言,美国在人工智能领域有主权目标,寻求保持美国的“领先地位”。

但美国卡内基国际和平研究院主席马里亚诺-弗洛伦蒂诺·奎利亚尔承认,人工智能治理是一个紧迫的问题,要想驾驭人工智能的风险就离不开国际合作。新加坡政府首席人工智能官兼副首席数字技术官何瑞敏则直言,人工智能是在全球供应链中产生的,不可能由一家公司、一个国家或者一个机构垄断。

“中国不仅仅把人工智能理解为一种技术或服务”

去年10月,中国发布《全球人工智能治理倡议》,提出以人为本、智能向善、尊重主权主张,为人工智能未来发展方向给出基本原则。中国政法大学教授张凌寒在5日的演讲中表示,我国已经逐步发展出修正人工智能风险治理的路径,中国人工智能治理正在本土化。

张凌寒表示,基于风险的治理被世界很多国家的立法采纳,但风险判断当中蕴含了很多价值的考量,风险并不是纯粹的科学概念,而是规范性概念。她指出,大部分机构都将侵犯隐私、歧视等对人身权利的侵害列为人工智能的主要风险,但这一类风险是难以量化计算的。

“我们对风险治理的基本思路,是计算损害的大小和损害发生的概率,最后看我们得到的收益是否成正比。”张凌寒说,“可是,如果人工智能时代面临的很多风险都难以量化和计算,这种治理方式就面临着困难。”

“人工智能不可能被一家公司、一个国家或一个机构垄断”

中国政法大学教授张凌寒发表演讲2024世界人工智能大会

她认为,我国已经逐步发展出修正人工智能风险治理的路径。她将中国人工智能治理的发展分为探索阶段、定向阶段和系统集成阶段,在治理手段上有与国际共通的部分,包括个人信息保护、算法影响评估等。与此同时,中国也发展出自己的特色部分,例如前两个阶段相关立法都强调发展与安全的平衡。

张凌寒说:“目前中国的人工智能治理理念,与其说是完全基于风险的治理理念,不如说是基于价值的治理理念。基于价值的人工智能治理并不排斥风险治理,但它超越于风险治理。”

她表示,中国的立法和政策治理中,不仅仅把人工智能理解为一种技术或者服务应用,人工智能既是未来赋能整个社会的基础设施,也是未来整个社会生产的组织形式,“另一方面,我国已经明确人工智能治理的理念和方案是‘以人为本 智能向善’,‘以人为本’是说技术不能偏离人类文明进步的方向,‘智能向善’是强调人工智能在法律伦理和人道主义层面的价值取向。”

随着人工智能浪潮的兴起,我国已经提出一系列关于人工智能治理的倡议和立法文件。2023年8月15日,中国正式施行《生成式人工智能服务管理暂行办法》,这是全球首个全面监管生成式人工智能的立法文件,体现了中国的事前监管要求。

今年5月9日,国务院印发《国务院2024年度立法工作计划》,人工智能法草案再次被列入预备提请全国人大常委会审议项目。

当地时间7月1日,第78届联合国大会协商一致通过中国主提的加强人工智能能力建设国际合作决议,决议获得140多个国家的联署支持。

据新华社报道,决议强调人工智能发展应坚持以人为本、智能向善、造福人类的原则,鼓励通过国际合作和实际行动帮助各国特别是发展中国家加强人工智能能力建设,增强发展中国家在人工智能全球治理中的代表性和发言权,倡导开放、公平、非歧视的商业环境,支持联合国在国际合作中发挥中心作用,实现人工智能包容普惠可持续发展,助力实现联合国2030年可持续发展议程。

“人工智能不可能被一家公司、一个国家或一个机构垄断”

当地时间7月1日,联大通过中国主提的加强人工智能能力建设国际合作决议视觉中国

中国常驻联合国代表傅聪在联大全会介绍决议草案时表示,当前全球人工智能技术飞速发展,对各国经济社会发展和人类文明进步产生深远影响。但大多数国家特别是发展中国家尚未能真正接触、使用人工智能并从中受益,全球数字鸿沟仍有扩大之势。广大联合国会员国普遍期待就人工智能能力建设加强国际合作,平等发展和利用人工智能技术,共享人工智能知识成果。

傅聪说,中方期待以本决议通过为契机,同广大会员国一道积极推动决议后续落实,坚持发展优先,坚持以人为本,坚持平等互利,坚持守正创新,以实际行动帮助发展中国家加强人工智能能力建设,促进人工智能赋能可持续发展,增进全人类共同福祉,推动构建人类命运共同体。

“人工智能不可能被一个国家垄断”

面对飞速发展的人工智能技术,世界各国也开始关注治理问题。新加坡政府首席人工智能官兼副首席数字技术官何瑞敏表示,新加坡从2019年开始开发人工智能治理框架,推动负责任地使用人工智能。在与全球和业界进行交流后,新加坡今年也更新了人工智能框架。

何瑞敏指出,人们还无法准确预测人工智能的发展方向,政策制定者需要以谦卑的态度不断学习、探索和了解新的科学知识,并对技术对社会的影响保持清醒的认知。他认为,人工智能不是“黑白分明的”,对于人工智能的治理,人们需要有不同的视野。

“AI可能会帮助我们应对气候变化,也会因为耗能而影响环境;AI可以帮助医疗,AI也可能会生成虚假信息等等。”何瑞敏说,“AI同时也可以向善,比如在新加坡,我们用AI优化移民的流程、预测医院繁忙时间,政府提供服务的时候也会使用聊天机器人。我们需要积极创新,让我们更好利用它有益的方面,并防止它对我们造成不好的影响。”

他认为,有必要鼓励政策制定者多使用人工智能,以了解其潜力和限制,“我们要减少AI带来的有害影响,我们需要让人们参与到数据环境中,培养他们的技能和就业能力,让我们的公民和企业从AI中获益,这是我们国家人工智能战略的重要支柱。”

“人工智能不可能被一家公司、一个国家或一个机构垄断”

新加坡政府首席人工智能官兼副首席数字技术官何瑞敏发表演讲2024世界人工智能大会

他强调,人工智能是在全球供应链中产生的,芯片制造、数据训练、模型训练、应用程序开发等每一个环节的参与者来自全世界,不可能由一家公司、一个国家或者一个机构垄断。因此新加坡希望加强监管,共享经验和做法,从而实现互惠互利。

新加坡政府在今年5月发布了《生成式人工智能治理模型框架》。据新加坡资讯通信媒体发展局发布的声明,该框架旨在促进创新的同时解决生成式人工智能问题,以构建一个可信的生态系统。框架呼吁政策制定者、产业界、研究界和公众等所有利益攸关方共同发挥作用。

美国加州大学伯克利分校人类兼人工智能中心执行主任马克·尼兹伯格(Mark Nitzberg)则指出,美国在人工智能领域拥有主权目标,寻求保持美国在人工智能领域的领先地位,也希望借助人工智能推动美国经济增长,以及推动美国国家安全发展。

他表示,在美国的监管过程中,不同利益团体有着不同的诉求,这导致美国现在存在三组法律,分别是白宫去年签署的行政令、参议院民主党领袖查克·舒默发布的路线图以及加利福尼亚州发布的SB-1047法案。

美国总统拜登在去年10月签署了一项行政令,要求美国政府机构制定标准,防止使用人工智能设计生物或核武器等威胁,并寻求“水印”等内容验证的最佳方法,拟定先进的网络安全计划。行政令还要求企业将人工智能产品的测试结果报告给美国政府,并提出吸引全球人工智能人才留在美国。

美国参议院民主党领袖舒默领导的一个跨党派小组则在今年5月发布了一项人工智能监管路线图。据美国“政治新闻网”报道,该路线图将增加创新资金、制定人工智能安全的国家标准、加强美国国家安全、解决人工智能可能导致的失业问题、应对大选期间的“深度伪造”等列为优先事项。

美国加州州参议院则在近期通过了SB-1047法案。据《福布斯》杂志报道,这项法案主要侧重于解决人工智能失控等潜在威胁,降低人工智能带来的生存风险。法案要求人工智能开发者进行严格的安全评估,并允许监管机构关停“以不安全方式运行”的人工智能产品。

“人工智能不可能被一家公司、一个国家或一个机构垄断”

去年10月,美国总统拜登在白宫签署人工智能行政令视觉中国

尼兹伯格表示,所有这些问题都还在辩论中,美国还没有大型的法律框架落地。他承认人工智能安全是一个重要问题,但他也认为,部分过于严格的规定可能会阻碍创新,“人们经常会把性能和安全混为一谈,我们的系统正变得越来越强大,但强大的性能并不一定与安全问题直接相关。”

他表示,在人工智能治理方面,有关机构可以向各行业的安全和监管组织学习并达成一系列协议。

尼兹伯格说:“我们希望能够对AI的行为做出某种量化的分析,这样就可以做出限制。我们的目标是尽量让AI变得安全,我们希望过程可以变得透明,而且语义可以分析,这样我们可以对一个系统进行某种形式的安全验证。这方面我们需要安全的生态系统,或者除非知道它是安全的,要不我们什么都不能运行,这方面我们已经取得了一些了不起的进展。”

“要驾驭人工智能的风险,离不开国际合作”

近年来,人们愈发意识到国际合作在人工智能治理方面的重要性,但如今国际社会正面临发展不平衡、地缘政治矛盾等一系列复杂的挑战,这使得国际合作面临挑战。

清华大学人工智能国际治理研究院院长、苏世民书院院长薛澜表示,人工智能全球治理的步伐依然存在差距,技术发展速度很快,但政府和相关机构的改变要慢很多。人工智能技术与许多机构存在关联,却没有明确的上下级关系,如何协调各机构的工作成为新的难题。

薛澜认为,政府机构更需要紧紧跟上人工智能的发展,作出快速响应。人工智能行业也需要加强自我管理,以严格的方式进行自我约束。

他还指出,地缘政治矛盾是人工智能全球治理面临的一个显而易见的问题。自2017年以来,美国和中国的科技合作急剧下降,这对人工智能治理的合作产生了巨大的影响。

“我们知道,美国的同事如果要跟中国合作,需要提交报告,做很多的工作。同时,我之前也有参与过相关的研究,很多公司不想参加,因为他们担心可能会被列入名单。”薛澜说,“在这样一种环境下谈合作,我觉得很困难。”

薛澜表示,他非常同意提升安全和治理方面的合作,危机管理、紧急计划等问题需要全球科研人员合作完成。但“美中竞争”是一个极具挑战性的问题,“我们至少要看一下,怎么样创造一个安全的空间,让技术人员和技术专家能够互相合作,不用担惊受怕。如果做不到这一点,我们所讲的很多东西都是无法实现的。”

“人工智能不可能被一家公司、一个国家或一个机构垄断”

清华大学人工智能国际治理研究院院长薛澜发表演讲2024世界人工智能大会

美国卡内基国际和平研究院主席马里亚诺-弗洛伦蒂诺·奎利亚尔(Mariano-Florentino Cuéllar)也承认,人工智能治理是一个紧迫的问题,在中美之间需要更多的协调合作。

奎利亚尔指出,人工智能的发展速度越来越快,正在改变我们的生活和工作方式,“现在正逐渐形成一个人工智能的生态系统,它跨越纽约、伦敦、上海、北京和其他地方,各地都在努力推进人工智能的创新,我们应当以负责任的方式推进这方面的工作。”

他认为,要想让人工智能更好地为人们服务,就必须解决现有模型存在的风险,“我们都知道,这些模型可能会生成或传播虚假信息,人工智能被应用于军事或国家安全方面可能导致国家间对抗升级……要驾驭人工智能带来的风险,我们就需要国际合作。”

在奎利亚尔看来,美国和中国有必要在人工智能治理方面合作,“我们应该引领人工智能前沿发展的一些应用。现在存在不同的风险,我们需要理解这些风险并进行合作,这样可以确保各国受益。”

法国国家人工智能委员会专家、法国国家计算机科学研究中心数据科学研究主管盖尔·瓦罗夸克斯(Gaël Varoquaux)表示,信息技术的发展已经重塑了社会,每一次变革都带来了新的进步和风险,人工智能的发展可以从过去的历史中吸取经验。

瓦罗夸克斯主张成立全球人工智能组织,“互联网和人工智能都可以轻易跨越国界,因此人工智能需要有全球的治理。我们希望能够通过共享的治理,帮助我们达成共同的目标,我们希望像互联网一样,不希望它过于分裂。”

本文系观察者网独家稿件,未经授权,不得转载。

大观网-36氪的头像大观网-36氪
Previous 2024 年 7 月 7 日 下午8:43
Next 2024 年 7 月 7 日 下午9:13

相关推荐