中国参加“人工智能安全峰会”并联署《布莱切利宣言》
2023年11月1日,英国主办、各方参与的“人工智能安全峰会”正式开幕。为期两天的峰会迎来了100多名各国政界和商界名人,包括美国副总统哈里斯、欧盟委员会主席冯德莱恩、OpenAI的奥特曼、特斯拉的马斯克、谷歌DeepMind的哈萨比斯、Arm的哈斯等。
这次会议的选址也别有深意,地方选在了伦敦近郊的布莱切利园(Bletchley Park)。这个庄园是英国一处有名的历史遗迹、二战时期英国政府密码学院的旧址。盟军的计算机和密码学团队在这里开发了早期的计算机和解密机器,成功破解了多种轴心国集团使用的加密系统,包括著名的德国Enigma密码机。这被不少历史学家认为直接缩短了二战的进程,其中最重要的贡献者是后来被称为计算机科学之父的Alan Turing。英国在2015年以他的名字命名建立了著名的数据科学和人工智能研究机构——阿兰·图灵研究所(Alan Turing Institute)
会议第一天,英国国王查尔斯三世通过视频致辞开启了峰会序幕,并在致辞中把AI提升到了像火、电力和核能这么重要的地位。上午是开幕式和全体会议,下午是围绕一个个不同主题的圆桌讨论,其中包括一个主题为“AI失控带来的风险”的讨论,马斯克、Open AI、英伟达、Anthropic和Arm的代表都参加了。第二天是英国首相苏纳克和一些政府代表、科技企业等小范围内部会议。峰会结束后将在六个月内举行一次线上的后续会议,由英国和韩国共同主办。明年的峰会最后确定由法国做东道主。
美国副总统哈里斯上午在唐宁街10号会见了英国首相苏纳克,下午在美国驻英国使馆发表了一个关于AI的演讲。随行的美国商务部长雷蒙多出席全体会议并发言,宣布美国将建立人工智能安全研究所,以评估人工智能带来的风险。
英国科学、创新与技术内阁大臣唐兰(Michelle Donelan)在开幕式致辞,强调这次峰会不仅是英国的成功,也是世界的历史时刻,并且还特别提到中国的参与是“monumental”的。
中国科技部副部长吴朝晖率领由科技部、外交部、中国科学院、阿里巴巴、腾讯组成的代表团参会,并在开幕式全体会议上发言。与会期间,代表团参与了人工智能安全等问题的讨论,宣介了中方几天前提出的《全球人工智能治理倡议》,接下来还会和相关国家开展双边会谈。根据媒体消息,中国代表团可能没有受邀参加和苏纳克的小范围会谈。
科技部副部长吴朝晖发言
吴朝晖与英国科学、创新与技术内阁大臣唐兰(Michelle Donelan)
集体合影
总体上,中国的发言和《全球人工智能治理倡议》高度一致。
在人工智能的伦理和治理上,中国指出:发展人工智能,应当积极倡导以人为本,智能向善,加强技术风险管控,并在相互尊重、平等互利的原则基础上,鼓励各方协同共治。
在人工智能安全问题上,中国强调了应秉持共同、综合、合作、可持续的安全观,坚持发展和安全并重的原则,并提出以中国的全球安全倡议
在人工智能国际治理的路径上,中国主张通过对话与合作凝聚共识,构建开放、公正、有效的治理机制,推动形成普遍参与的国际机制和具有广泛共识的治理框架。中国还特别强调了增强发展中国家在人工智能全球治理中的代表性和发言权,不断弥合智能鸿沟和治理能力差距。另外,根据媒体的报道,中国的发言还提到了使用人工智能要遵守国际法。
中国也联署了会议的重要成果文件——关于人工智能国际治理的《布莱切利宣言》。
《布莱切利宣言》(英文请阅读原文)
人工智能(AI)带来了巨大的全球机遇:它有潜力改变和增强人类福祉、和平与繁荣。为了实现这一目标,我们申明,为了所有人的利益,AI应该以安全、以人为本、可信赖和负责任的方式设计、开发、部署和使用。我们欢迎国际社会迄今为止在AI合作方面所做的努力,以促进包容性经济增长、可持续发展和创新,保护人权和基本自由,并培养公众对AI系统的信任和信心,以充分实现其潜力。
AI系统已经部署在日常生活的许多领域,包括住房、就业、交通、教育、健康、无障碍和司法,对它们的使用可能会继续增加。我们认识到,这是一个独特的时刻,需要采取行动,确认AI的安全发展,以及AI的变革机会需要在国家和全球范围内以包容、向善的方式应用于所有人。这包括公共服务,如卫生和教育、粮食安全、科学、清洁能源、生物多样性和气候,以实现人权,并加强实现联合国可持续发展目标的努力。
除了这些机会,AI也带来重大风险,包括在日常生活领域。为此,我们欢迎相关的国际努力,审查和解决AI系统在现有论坛和其他相关举措中的潜在影响,并认识到需要解决保护人权、透明度和可解释性、公平性、问责制、监管、安全、适当的人类监督、道德、减少偏见、隐私和数据保护等问题。我们还注意到,AI系统操纵内容或生成欺骗性内容的能力可能带来不可预见的风险。所有这些问题都至关重要,我们确认解决这些问题的必要性和紧迫性。
特别的安全风险出现在“前沿”的AI,即那些能够执行各种任务的高能力通用AI模型,包括基础模型,以及可能表现出与当今最先进模型相匹配或超过现有能力的相关特定狭窄定义的AI。重大风险可能来自潜在的故意滥用,或与按照人类意图行事相关的控制问题。此类问题部分是人类尚未完全理解AI的这些能力,因此难以预测。我们特别关注网络安全和生物技术等领域的此类风险,以及前沿AI系统可能放大虚假信息等风险的领域。这些AI模型最重要的能力可能导致严重甚至灾难性的伤害,无论是故意还是无意的。鉴于AI的快速和不确定的变化速度,以及在技术投资加速的背景下,我们申明,加深对这些潜在风险的理解,以及加深对应对这些风险的行动的理解,尤为紧迫。
AI带来的许多风险本质上是国际性的,因此最好通过国际合作来解决。我们决心以包容的方式共同努力,确保以人为本、可信赖和负责任的AI是安全的,并通过现有的国际论坛和其他相关举措支持所有人的利益,以促进合作,应对AI带来的广泛风险。在这样做的过程中,我们认识到各国应考虑促进创新和相称的治理和监管方法的重要性,这种方法最大限度地发挥效益,并考虑到与AI相关的风险。这可能包括根据国情和适用的法律框架在适当情况下对风险进行分类和分类。我们还注意到各国需要在共同原则和行为准则等方法上适当合作。关于最有可能在前沿AI方面发现的具体风险,我们决心通过现有国际论坛和其他相关举措,包括未来的国际AI安全峰会,保持和强化我们的合作,并扩大与更多国家的合作,以识别、理解相关问题并酌情采取行动。
所有行为体都可以在确保AI安全方面发挥作用:国家、国际论坛和其他倡议、公司、民间社会和学术界需要共同努力。我们注意到包容性AI和弥合数字鸿沟的重要性,重申国际合作应努力酌情吸纳广泛的伙伴,并欢迎能够帮助发展中国家加强AI能力建设、利用AI的有利作用支持可持续增长和解决发展差距的、以发展为导向的方法和政策。
我们申明,虽然必须在整个AI生命周期考虑安全,但发展前沿AI能力的行为者,特别是那些异常强大和潜在有害的AI系统,对确保这些AI系统的安全负有特别重大的责任,包括通过安全测试系统、评估和其他适当措施。我们鼓励所有相关行为者就其衡量、监测和减轻AI潜在有害能力及其可能出现的相关影响的计划,提供适当的透明度和问责制,特别是为了防止滥用和控制问题以及其他风险的放大。
在我们的合作范围内,并为了给国家和国际两级的行动提供信息,我们应对前沿AI风险的议程将侧重于:
确定共同关切的AI安全风险,建立对这些风险的共同科学和循证理解,并在理解AI对我们社会影响的更广泛全球方法的背景下,随着能力的不断提高,保持这种理解。
在我们各国建立各自的基于风险的政策以确保在这些风险下的安全,在承认我们的方法的同时进行适当的合作可能因国家情况和适用的法律框架而异。这包括私营行为者提高透明度,发展前沿AI能力,适当的评估指标,安全测试工具,以及发展相关的体制内能力和科学研究。
为推进这一议程,我们决心支持建立一个具有国际包容性的前沿AI安全科学研究网络,该网络包括和补充现有和新的多边、多边和双边合作,包括通过现有国际论坛和其他相关举措,促进为决策和公共利益提供最佳科学。
认识到AI的变革性积极潜力,并作为确保更广泛的AI国际合作的一部分,我们决心维持包容性的全球对话,让现有国际论坛和其他相关举措参与进来,并以开放的方式为更广泛的国际讨论做出贡献,并继续研究前沿AI安全问题,以确保可以负责任地利用技术的好处造福所有人。我们期待2024年再次会面。
协定签署国:
澳大利亚
巴西
加拿大
智利
中国
欧盟
法国
德国
印度
印度尼西亚
爱尔兰
以色列
意大利
日本
肯尼亚
沙特阿拉伯
荷兰
尼日利亚
菲律宾
韩国
卢旺达
新加坡
西班牙
瑞士
土耳其
乌克兰
阿联酋
英国
美国
其他参会的国际组织、研究机构、非政府组织和科技企业:
Academia and civil society
- Ada Lovelace Institute
- Advanced Research and Invention Agency
- African Commission on Human and People’s Rights
- AI Now Institute
- Alan Turing Institute
- Algorithmic Justice League
- Alignment Research Center
- Berkman Center for Internet & Society, Harvard University
- Blavatnik School of Government
- British Academy
- Brookings Institution
- Carnegie Endowment
- Centre for AI Safety
- Centre for Democracy and Technology
- Centre for Long-Term Resilience
- Centre for the Governance of AI
- Chinese Academy of Sciences
- Cohere for AI
- Collective Intelligence Project
- Columbia University
- Concordia AI
- ETH AI Center
- Future of Life Institute
- Institute for Advanced Study
- Liverpool John Moores University
- Mila – Quebec Artificial Intelligence Institute
- Mozilla Foundation
- National University of Cordoba
- National University of Singapore
- Open Philanthropy
- Oxford Internet Institute
- Partnership on AI
- RAND Corporation
- Real ML
- Responsible AI UK
- Royal Society
- Stanford Cyber Policy Institute
- Stanford University
- Technology Innovation Institute
- Université de Montréal
- University College Cork
- University of Birmingham
- University of California, Berkeley
- University of Oxford
- University of Southern California
- University of Virginia
Industry and related organisations
- Adept
- Aleph Alpha
- Alibaba
- Amazon Web Services
- Anthropic
- Apollo Research
- ARM
- Cohere
- Conjecture
- Darktrace
- Databricks
- Eleuther AI
- Faculty AI
- Frontier Model Forum
- Google DeepMind
- Google
- Graphcore
- Helsing
- Hugging Face
- IBM
- Imbue
- Inflection AI
- Meta
- Microsoft
- Mistral
- Naver
- Nvidia
- Omidyar Group
- OpenAI
- Palantir
- Rise Networks
- Salesforce
- Samsung Electronics
- Scale AI
- Sony
- Stability AI
- techUK
- Tencent
- Trail of Bits
- XAI
Multilateral organisations
- Council of Europe
- European Commission
- Global Partnership on Artificial Intelligence (GPAI)
- International Telecommunication Union (ITU)
- Organisation for Economic Co-operation and Development (OECD)
- UNESCO
- United Nations
评论排行