6月1日,由清华大学人工智能国际治理研究院和人工智能治理研究中心承办的2022智源大会-人工智能伦理、治理与可持续发展论坛线上举办,国内外多位专家围绕人工智能治理认知逻辑、人工智能伦理治理动机与方向、中国人工智能治理现状与举措等议题展开对话交流。多位专家认为,人工智能伦理治理涉及多个方面问题,应根据每种不同类型的问题分别进行针对性解决。

 

科技部新一代人工智能发展研究中心主任赵志耘在发言中表示,推动人工智能伦理治理是国际社会共同关注的重要议题,各方已在伦理治理理念方面拥有诸多共识。在目标宗旨方面,各方秉承科技向善的基本理念,促进人工智能健康发展;在基本原则方面,各方就问责制、不侵犯隐私、公平、尊严等达成共识;在治理手段方面,各方致力于通过“软硬结合”的方式来实现人工智能的透明度、可解释性、问责制等伦理要素。

 

她表示,推动伦理治理需要坚持三项关键要求:一是把握好人工智能发展规律和特点,明确现实的伦理问题;二是把握好人工智能伦理治理的边界,在适当范围内规范人工智能发展;三是把握好发展与治理的平衡关系,以治理促发展。最后,她指出,各类参与主体都应自觉推动人工智能治理工作的落地,将人工智能伦理治理的要求贯穿到人工智能全生命周期之中,塑造科技向善的治理理念和实施机制。

 

卡内基理事会资深研究员、I-AIIG学术委员温德尔•瓦拉赫(Wendell Wallach)表示,人工智能伦理治理需要国际合作,国际组织在人工智能伦理治理中扮演的角色变得愈发重要。中国出台的一些治理方案、法规十分具有前瞻性和建设性,中国的人工智能规范和治理也都在不断完善,可以令世界从中得到启发。

 

他还认为,在人工智能伦理治理过程中,需要通过结合软硬法的方式来设定一个非常稳健的机制。最后,他指出,治理存在于各个不同的层级之中,因而治理过程中也需要体现不同的价值存在。

 

国家新一代人工智能治理专业委员会委员、上海交通大学人工智能研究院首席顾问教授、上海数字医学创新中心学术委员会副会长李仁涵在演讲中表示,人工智能技术的未来发展势头迅猛,智能时代的竞争格局在未来也将逐步形成,国际层面的人工智能技术和规则竞争可能已成定局。

 

他进一步指出,人工智能治理问题主要涉及三个方面,即安全问题、伦理问题和不可控问题。在安全方面,需要做到可操作;在伦理方面,将软性举措变为刚性举措,从而促进落地;在可信可控方面,需要建立技术支撑,建立基于国内治理、国际规则的治理体系。

 

他提到,相关国际组织制定的人工智能标准进入井喷期,国际人工智能治理工作也正在加速可操作化。当前,建立相应的可操作“规则”对中国而言是比较迫切的,这不仅有利于让人工智能可持续发展,还有利于国际接轨和全球化发展。

 

李仁涵认为,价值观并不能影响人工智能的发展与合作,合作与发展的关键是相互尊重。他特别指出,建设人工智能评测平台有助于人工智能治理落地,是人工智能未来发展的重要基础设施之一,是人工智能技术与治理的深度融合的平台,是相关人才培养、成长与发挥作用的重要舞台,是人工智能产业及赋能各行各业持续健康发展的基础保障,是国际合作与交流的硬实力,是参与国际规则制定的重要基础。

 

国家新一代人工智能治理专业委员会主任,清华大学文科资深教授、人工智能国际治理研究院院长薛澜表示,近年来关于人工智能领域的学术研究十分活跃,人工智能在个体层面、行业层面、社会层面的应用也正不断拓展,渗透到各个方面。与此同时,人工智能的广泛应用也带来了诸多伦理与治理问题,引发广泛担忧。

 

薛澜提到,从历史上看,重要的技术创新都经过了从核心驱动层到环境变革层,再到认知适配层,最后到治理范式层的演进,然而人工智能的这四个阶段都被高度压缩了,导致治理问题尤为突出。他认为,应对人工智能治理中涉及对不同类型问题进行区分。

 

首先,从经济层面,需要权衡人工智能技术应用中的收益和成本;其次,在伦理层面,应研判技术的应用对社会各种行为准则和规范产生了何种影响;再次,在社会影响层面,应在人工智能治理中提前预判技术的发展与影响。

 

薛澜最后提出5条人工智能伦理问题的解决之道,即健全人工智能伦理与安全的治理体系;推进法律法规、标准规范的落地实施;建立多主体参与的对话机制,跟踪技术发展前沿,发现新的安全和伦理问题;建立人工智能前沿研究和应用的伦理评估、预警及管制控制;以及加强伦理教育,提高伦理意识,培育健康的智能文化与数字人文思想,加强科学传播和伦理普及,提高公众认知水平,真正让人工智能应用做到造福于人类。

 

中科大机器人实验室主任、CAAI人工智能伦理治理工委会主任、全球人工智能理事会执行委员陈小平认为,应对人工智能伦理问题可以从探索新型治理模式、设立人工智能科研新分支、拓展传统治理模式这三个方面进行。

 

他认为,人工智能伦理治理主要包含三类性质不同的挑战性问题,即合理性问题、可控性问题和重大相关问题,应分别需要采用不同方式来予以应对。比如可控性问题作为一种新型问题,应专门设立一个新的研究分支。治理合理性问题,则首先需要进行综合研判,并基于伦理、用户需求和管理等角度形成共识,再以共识为基础,针对具体的人工智能产品,制定包含伦理研判的国家标准并加以实施,必要时加以立法。

 

陈小平指出,尽管当前出台了大量的人工智能标准,但是包含伦理研判的人工智能产品标准还比较少,正是因为没有形成相关共识。此外,现在已经有一个专门针对人工智能的技术伦理研究,以让人工智能技术更符合伦理,且探索更好的办法来解决合理性问题。

 

来源:搜狐新闻