STEM是科学(Science),技术(Technology),工程(Engineering),数学(Mathematics)四门学科英文首字母的缩写。从未获学位的技术人员和机械师,到博士级科学家和工程师,STEM人才覆盖很广,他们是发明、开发和推广新技术并推动技术安全应用的必要主体。目前,各科技大国的政策制定者都已认识到,人才在推动创新和整体技术优势方面起到关键作用。
2019年,美国国家人工智能安全委员会(NSCAI)向国会提交一份临时报告,指出STEM人才是技术创新各方面的“最重要驱动力”。美国政府近期几乎所有与技术相关的官方文件、都把发展劳动力作为重要内容,尤其强调STEM人才的重要作用。此外,美国国家安全顾问杰克·沙利文(Jake Sullivan)和商务部长吉娜·雷蒙多(Gina Raimondo)等美国高级官员在公开讲话中,也经常强调STEM人才是美国成功技术战略的必要组成部分。
中国也同样重视培养一支强大的STEM人才队伍,其对科技教育的资助,在 2012年至2021年间翻了一番。中国推出多项国家资助计划,为吸引人才回流做出巨大努力。在基础教育阶段,中国多省已在中小学阶段引入人工智能相关内容。中国的众多人才举措已经取得明显成效。例如,自2000年代中期以来,中国培养的STEM博士人数已超过美国;中国培养出的顶级人工智能工程师也比其他任何国家都多。
各国用实际行动表明,技术竞争的核心是人才争夺战。如果没有具备执行能力的人才,旨在加强国家技术优势的产业政策就毫无意义。美国商务部长雷蒙多在谈到计划投入520亿美元的“芯片法案”时指出,“如果我们不投资于美国的制造业劳动力,那么我们花多少钱都没有用”。因此,虽然发展劳动力曾是公共政策(如教育政策)的专属领域,但现在已上升到国家安全的高度,成为世界各国的当务之急。
2 美国STEM教育体系现状
本报告评估美国在培养和保持STEM人才方面的准备情况——尽管标准化考试成绩和学位完成率是衡量学生绩效和STEM能力的不完美指标,但它们展现了美国在K-12和高等教育阶段都存在令人担忧的STEM知识差距。
经济合作与发展组织(OECD)每三年进行一次国际学生评估计划(PISA),以衡量15岁学生的数学和科学素养。在最新公开结果的2018年PISA测试中,美国在77个调查国家中的科学素养排名第18,数学素养排名第37。相比2015年的测试结果,美国学生并没有明显改善,这佐证了美国国家科学委员会(NSTC)的结论,即美国学生在科学和数学标准化测试上的表现在过去十多年里没有改善,并在全球竞争对手中排名中游。
美国年轻学生在“国际数学与科学教育成就趋势研究”(TIMSS)中的表现也不佳。2019年,美国四年级和八年级学生的排名低于中国学生,相比2015年的TIMSS测试,也没有改善。此外,美国在这两个科目和年级中,优秀学生和较差学生之间的分数差异“相对较大”,并且分化相比前几年又有所增加。
NSTC发现,在美国的小学和中学生中,STEM表现的差距,与社会经济地位和种族有关。2021年,美国低社会经济地位的学生在国家STEM评估中的得分明显更低。黑人、西班牙裔、美国印第安原住民、阿拉斯加土著以及夏威夷和太平洋岛屿的原住民学生的得分,显著低于白人和亚洲学生。
K-12学生在STEM表现方面的差异部分原因,可能是他们在接受STEM教育资源上,是不平等的。2021年,NSTC的一项全国性研究显示,在社会经济地位较低和少数族裔学生比例较高的学校中,拥有所教科目的学位并且至少有三年教学经验的“高素质教师”非常稀缺。2017年的另一项全国性研究同样表明,就读于最贫困学校(至少75%的学生享受免费或减价午餐)的美国学生,在他们K-12教育的每个阶段都只有较少机会获得STEM资源、经验和课程;在较小规模、农村地区或边缘社区的高中,STEM课程明显更少或者干脆不开设。
这种不平等的STEM教育机会,导致美国学生糟糕的STEM素养,也导致相关职业中存在的种族、社会经济和性别不平等得以延续。
而进入高等教育阶段后,美国的STEM人才培养趋势也令人担忧——最终能够完成STEM学位的学生不到40%。NSTC预计,只有每年获得STEM本科学位的学生数量增加约34%,美国才能保持在科技领域的历史优势。
当前,在美国获得STEM大学学位的总人数中,许多群体的人数远远不足。美国国家科学基金会2022年的调查数据显示,黑人学位获得者在所有学位级别(副学士、学士、硕士和博士)中的比例都偏低,西班牙裔、美国印第安人和阿拉斯加原住民学位获得者在除副学士以外的所有学位级别中的比例都偏低。此外,尽管女性在本科和高级学位总数中所占的比例高于男性,但她们在STEM领域所获学位的比例却低于男性。
3 美国战略产业的STEM人才现状
在学校教育体系外,一个更令人担忧的事实是,量子信息、半导体和关键矿产等战略科技行业的STEM人才短缺现象更加明显。
(一)量子信息科学与技术
量子信息科学与技术(QIST)的人才已经供不应求,需求还在迅速增加。QIST的发展需要一个拥有多学科和技能的人才队伍:需要“深厚的量子专业知识”来“推进基础科学”,拥有“广泛的量子工程技能”来“构建基础和支持技术”,以及在各个终端用户中培养“对量子的基础认识”,以“定义和执行潜在的应用”。
截至2021年12月,美国量子计算专家的活跃职位发布数量,已经超过毕业生数量的三倍,超过一半的美国量子计算公司正在积极招聘。在短期内填补QIST职位的空缺将会很困难。大多数现有的与量子相关的毕业生和人才位于美国以外,而QIST专业人才的培养是缓慢的,需要长达10年的高等教育和岗位培训。此外,量子计算公司还必须争夺一些低技能水平的工人,这些工人拥有广泛适用的技能,可以在多个有吸引力的行业工作。根据麦肯锡预测,如果不采取重大措施,到2025年,美国只有不足50%的量子计算岗位能招到人。
(二)半导体
与QIST的人才问题类似,美国半导体行业在多种职位和技能层次上存在短缺。半导体行业在工厂的人才缺口尤其突出,包括生产工程、物流和支持以及生产运营等。截至2022年底,半导体行业有2万个职位空缺。预计到2030年,美国将面临30万名工程师和近9万名熟练技术人员的短缺,而“芯片法案”带来的人才需求增加可能会加剧这一趋势。
根据“芯片法案”,美国到2025年将需要7万到9万名新员工,以满足与制造业扩张有关的最紧迫的人才需求。为了完全摆脱对外国芯片的依赖,可能需要额外的30万名工人。如今,英特尔公司在美国本土已经难以找到足够的操作员和技术人员来保持晶圆厂的运转。此外,专业人才对芯片制造行业的兴趣正在减少。例如,自从上世纪80年代中期以来,罗切斯特理工学院的半导体设计和制造本科专业的学生人数已从50人减少到10人。
(三)关键矿产
关键矿物为许多现代技术提供基础,对国家安全和经济繁荣至关重要。它们支撑着从消费电子到先进武器系统的各种应用,并且是电动汽车和风力涡轮等清洁能源技术的关键组成部分。
2022年,美国对12种关键矿物完全依赖进口,对31种关键矿物的依赖程度超过50%。当前美国几乎没有国内矿物开采、精炼和加工能力。面对美国电动汽车产业的当前需求,其国内只能生产4%的锂,13%的钴,以及零星的石墨。预计到2050年,美国对关键矿物的需求将增加400%到600%。对此,白宫热衷于多元化供应链,增强美国的采矿和制造能力,但却缺乏实施这一目标所需的STEM人才基础。
2022年一项对美国矿业企业的调查中,86%的高管表示存在招聘和人才留任方面的挑战,71%表示人才短缺正阻碍他们实现生产目标和战略目标。此外,到2029年,约22.1万名矿业工人(占美国国内矿业劳动力的一半以上)将退休,但能替代他们的人才储备很少。自2016年以来,美国的矿业毕业生减少39%,在2020年甚至只颁发了327个矿业和矿产工程学位。截至2023年,美国只有15所采矿学校和大学。美国必须招聘、培训和留住更多的人才,从设备操作员和电工到地下矿工和岩土工程师,以满足其关键矿产供应链和清洁能源目标。
4 美国STEM人才政策的“危”与“机”
上述对美国STEM教育和人才供应情况的分析表明,美国的科技领先地位已呈现出战略上的脆弱性,恐怕难以持续。美国缺乏STEM教育体系来培养熟练且多样化的STEM人才储备,以及一个在关键技术领域随时可用的STEM人才队伍。
(一)庞大的人口规模
不过,美国似乎具有几项优势,可以克服STEM劳动力挑战。首先,美国的人口规模庞大且不断增长。美国国会预算办公室预计,到2053年,美国人口将增加近3700万人。尽管65岁及以上人口的比例增长速度超过适龄劳动人口,但仍有强大的适龄劳动人口群体可以从事STEM职业。
STEM产业具备充分的条件,来最大程度发挥庞大且不断增长的美国人口的潜力。美国的STEM就业机会遍布多个地理位置,涵盖多种职业,为不同年龄群体、不同背景和教育水平的个人提供机会。
与非STEM工作者相比,STEM工作者通常拥有更好的劳动力市场表现,失业率较低,薪资水平也较高。在美国的STEM工作者中,有超过一半没有获得学士学位,但他们的中位数收入较高,并且拥有比非STEM领域同行更多的职业发展机会。STEM职业的多样性和灵活性,为少数族裔社区、没有大学学位的美国工人以及生活在非都市地区的个体提供重要机会,该群体在美国人口中占据相当大的比例。
(二)吸引国际STEM人才
除了庞大的国内人才储备外,美国还能受益于丰富的国际人才资源。移民对美国的创新和技术竞争力具有重大影响,是美国另一个重要的人力资本优势。2022年12月,美国国家经济研究局(NBER)发现,尽管移民在美国发明家中仅占16%,但在过去30年中,移民为美国36%的创新做出贡献。独特的美国研究文化,以高度自由和合作为特点,使美国成为国际人才的吸引力目的地。
然而,复杂的美国移民法律,越来越阻挠顶尖个人和组织为美国的STEM生态系统做出贡献。如果缺乏移民改革,美国的法律体系可能很快成为人力资本的制约因素。
目前,美国还有留住国际人才的能力。从2000年到2015年,在美国大学获得STEM博士学位的国际毕业生中,约77%在截至2017年2月时仍居住在美国,高留存率可能会持续存在。在美国国家科学基金会对博士学位获得者的调查中,大多数国际STEM博士研究生表示,他们有意在毕业后留在美国。在所有STEM领域中,留在美国的意愿达到70%或更高。
尽管表现国际学生留下的总体趋势依旧,但美国的比较优势,还是有走弱的风险。自2016年以来,赴美国留学的国际学生人数持续下降,给美国经济造成约118亿美元的损失,超过65000个工作岗位。未来,国际学生可能会面临与移民相关的一系列挑战,这些问题,将是影响他们选择不在美国学习的关键因素。在获得人工智能博士学位的国际学生中,有60%在毕业后离开美国,签证问题和相关障碍严重影响他们的决定。限制性的美国移民政策,带来意想不到的后果,使其他国家在吸引最优秀的STEM人才方面超越美国。
(三)来自盟友的“挖墙脚”
即使是美国的“友好国家”,也在修改长期以来的移民政策,以利用美国的移民漏洞,并扩大顶尖人才的获得途径。自2010年以来,22个OECD成员国推出了针对企业家型STEM人才的有针对性的签证计划。
2023年6月,澳大利亚公布计划,通过支付外国工人更高的薪水、简化签证申请流程,并引入“积分测试”来筛选能够“为未来国家利益做出贡献”的永久居留申请人的技能,以确保在“全球下一代技术的竞争中保持竞争力”。这些计划预定于2023年7月生效,标志着澳大利亚首次在十年内修改其移民政策。
类似地,加拿大在2023年也宣布其首个“科技人才战略”,旨在提供未来的就业机会,确保能够获得“能推动创新和推动新兴技术发展的顶尖人才”。该战略包括设立一个“为美国H-1B特殊职业签证持有人申请加拿大工作许可证的开放式工作许可流”,“14天完成工作许可证服务”,“将加拿大打造成数字游民的目的地”,以及其他积极的吸引措施。该战略基于加拿大在2015年推出的Express Entry系统,为高技能的外国人提供了一条快速获得永久居留权的途径。在2016年至2019年期间,赴加拿大留学的印度STEM硕士研究生数量增加了182%,而赴美国留学同一领域的印度学生数量减少了38%。如今,美国在争夺STEM人才方面还必须应对盟友的竞争。
移民限制还导致美国科技企业将业务迁移到人才所在地,而不是在国内运营。在2019年的一项调查中,近一半的美国科技公司表示,获得更多人才是推动其进入国际市场扩张的主要因素,而只有20%的受访者表示美国是寻找所需专业知识的目的地。正如NSCAI在其最终报告中指出的那样,美国的移民改革不是选择,而是“国家安全的必要举措”。
5 改进美国STEM教育体系的现行模式
要维持STEM人才体系,“修炼内功”是当务之急。美国的教育界和私营部门已经启动了多项努力,以改善STEM教育体系。
(一)推动从K-12到大学阶段的“校企合作”
一个典型案例是普渡大学的半导体学位和证书项目,将学校课堂与企业实践机会相结合。该项目于2022年5月推出,为本科和研究生学生提供多种途径,包括硕士学位、本科辅修、副学士学位和可叠加证书,以获得半导体行业所需的核心技能。除了集成电路和芯片设计,该项目还教授其他关键的芯片制造步骤,如化学、材料、工具、制造、封装和供应链管理。
在制定课程大纲方面,由私营企业高管组成的半导体学位领导委员会发挥着关键作用——这些大纲将基于行业的现实需求。一些行业合作伙伴,如半导体制造商SkyWater Technology(译者注:美国唯一全资半导体代工厂),甚至主持了该项目的入门研讨会。行业合作伙伴还同意为普渡大学的学生提供合作和实习机会,使他们能够在完成学位的同时获得宝贵的实际经验。凭借超过11,000名本科生和4,000名研究生,普渡大学的项目有助于保持全球竞争力人才的储备。
类似地,俄亥俄州立大学于2022年9月推出“先进半导体制造研究和教育中心”。该中心横跨该州内的10所大学和学院,旨在通过提供适合传统半导体相关学科(如电气工程和计算机工程)之外学生的课程,来吸引新的多样化人才加入半导体行业。与普渡大学的项目类似,私营企业在培养中心的成功方面发挥着关键作用,包括制定课程大纲、培训和聘请教员,以及购买必要的设备。例如,英特尔公司于2022年向该中心承诺了300万美元,并同意为学生提供实习、指导和研究机会。根据俄亥俄州立大学工程学院院长阿亚娜·霍华德(Ayanna Howard)的说法,该中心已经帮助建立了一个“全面、包容性的半导体教育生态系统,欢迎来自各个背景的学生”。
灵活的“学徒计划”为学生提供了另一种途径,在完成学位课程的同时获得有价值的在职培训和经验。例如,在美国的三星公司通过“半导体学徒计划”为学生提供报酬,让他们每周在三星工作两天,同时完成副学士学位。在完成学位课程后,学生可以申请成为三星技术员的全职职位。该计划帮助三星填补了关键的管道安装、暖通空调和焊接职位,并为约200名成年人和潜在“失足青年”提供了获得认可学位的机会。
美国的企业和社会组织也在积极改善K-12阶段的STEM教育。美光(Micro)的“芯片营地”使中学和高中学生可以参与与半导体制造和工程相关的活动,了解内存芯片的制造过程,并从美光团队成员和当地大学的工程学生获得指导。美光还针对性丰富少数族裔的STEM人才来源,通过与相关社会组织合作,以零成本提供该计划,例如在历史悠久的黑人大学举办营地。自2002年创立以来,该计划已经为3,000多名学生提供了约14,000小时的STEM教育。
芝加哥大学每年一次的免费科学节同样提供游戏、专题讨论和技术演示,让孩子们有机会与从事不同STEM领域职业的专业人士互动。这些以学生为导向的倡议有助于改善美国的STEM教育质量,确保教育机会均匀分布在各个社会经济群体中,并提升年轻人对STEM职业的兴趣。
(二)加强学校教育外的职业培训
然而,在校学生只是美国庞大多样人力资源库中的一部分。少数族裔、无大学学位群体,以及农村和偏远地区的居民代表了更为可观的未开发人才库。通过专门的STEM职业培训,可以将职业发展机会延伸到这些群体。“再培训”(reskilling)涉及员工学习新技能,以转向新的工作领域;“技能提升”(upskilling)涉及员工在其目前的专业领域获得额外的技能。
再培训和技能提升有助于高员工绩效和保留率,以营造学习和成长的企业文化,促进多样性和包容性,并使领导层能够将人力资本与组织优先事项相一致。一些STEM相关的企业和社会组织已经在系统性地推广相关职业培训事宜,以提升此前被较少关注群体的人力资本。
例如,美光与纽约州克莱、锡拉丘兹和奥农达加等地的当地市政官员合作,举办了一系列的市政厅会议,让居民了解其在克莱建立先进存储芯片制造设施的计划。这些市政厅会议重点吸纳农村和郊区成员,鼓励他们就该项目及其潜在利益提出问题,了解相关工作机会,并获得申请市政府实施的学徒计划所需的材料。
在线技术也打破了传统职业技能培训的地理限制。在2021年,加州理工学院继续教育部与Upskill California和加州就业培训委员会两个州级项目合作,基于亚马逊的网络服务,为加州各地的个人提供云计算和网络安全的在线技能培训。这项倡议有助于将实践性技术培训的好处扩展到农村和边缘社区。
各项组织也更进一步为职业培训推出了“在线认证”体系,例如编码训练营和加速学习项目。编码训练营Course Report就是一个例子,其83%的毕业生能在技术领域应用学到的技能,并且毕业后的中位数薪资增长了51%。AT&T退出了花费10亿美元的“未来就绪倡议”提供个性化的在线课程,计划为10万名员工提供重返新工作的培训机会。截至2018年,AT&T已向大约57,000名员工授予了虚拟“徽章”,标志着他们完成了需求量大的技能领域的在线课程,如数据科学和云计算。
不过,纯粹的职业技术培训也存在局限性。以量子计算行业为例,该行业需要在软件开发和量子工程方面都具备双重专业知识的复合型人才。此外,当量子技术需要的应用落地时,又必须有相关行业(如金融)的知识和经验。正如量子软件公司Classiq的首席营销官Yuval Boger所指出的,具备推动该领域所需技能组合的复合型人才就像尚不存在的“独角兽”。
在半导体行业面临的挑战有所不同:通过密集的职业培训可以培养出设计和软件工程师,并且拥有高薪和灵活的远程工作选择,但这样的岗位需求量最小且最受欢迎。相反,严重短缺的制造技术人员和工艺工程师需要长时间的专业岗位磨练,并且薪水较低且工作弹性较小。简而言之,在高度专业化的领域中,职业培训的机会可能相对有限,仅靠再培训和技能提升,无法弥补人才缺口。
6 结论
在这个受新兴技术塑造的世界中,高科技人才体系对于维持全球领导地位至关重要。如今,美国正处于关键的转折点——尽管其长期拥有人口多样性、研究开放性和移民/国际学生吸引力等比较优势,但失去人力资本竞争优势的风险已非常明显。
在国内,美国的STEM教育质量和普及水平呈现令人担忧的趋势,在量子信息、半导体和关键矿产等战略产业正面临“无人可用”的困境。在国外,全球对STEM人才的需求正在迅速增长,即便美国的盟友也在利用其“移民制度”以争夺可用的人才资源,以期在特定领域超越美国。
为此,美国应该重点补齐其STEM教育体系,扩大教育机会的获取途径、推动劳动力技能多样化、减少与STEM职业相关的准入障碍,进而能够将少数族裔、无大学学位群体,以及生活在农村和边缘地区的居民等真正纳入美国的STEM人力资源库,进而推进其国家和经济安全。
导读:近日,首届人工智能安全峰会于1日至2日在英国举行,包括中国、美国、英国在内的28个国家及欧盟共同签署了《布莱切利宣言》。峰会宣言指出,人工智能的许多风险本质上是国际性的,“最好通过国际合作来解决”。随着人工智能产业开始快速发展成型,人工智能的潜在挑战也随之浮现。Eurasia Group总裁、政治学者Ian Bremmer就发文指出:生成式人工智能的迭代升级速度超乎想象,国家试图控制人工智能并使其为己所用,但却远远跟不上人工智能的升级和普及速度。这一技术很有可能威胁民族国家作为世界地缘政治主体的地位,并将引发全球权力结构和平衡的地震式转变。
人工智能“军备竞赛”的动力既来自于商业利益,也来自于国家战略。主要技术大国在面对人工智能这一全新技术时,仍然以传统的技术治理和监管框架来理解问题。事实上,人工智能技术难以完全为国家所驯服。首先,人工智能模型非常容易传播,而当下互联网科技领域又恰恰是开源的,任何一点小小的破坏性进展,都可能迅速传遍全球。其次,由于当下人工智能的通用性追求,几乎所有的人工智能都是军、民两用的。而人工智能的实际管理权限和技术能力,则掌握在开发和运营它们的技术公司手中。最后,主要大国仍然在加速发展人工智能,并将其视为零和游戏,这可能继续扩大少数大型专业人工智能公司对人工智能技术浪潮的权力。
强大能力、较难监管和加速发展之间的悖论,让建立监管机制显得尤为紧迫。作者建议:参考国际金融秩序安排,和应对气候变化的机制,建立三个人工智能国际监管机制,分别承担学术性分析和建议、国家间协调防危险扩散,和危机应对的任务。强大的人工智能治理不仅可以减轻其社会风险,还可以通过避免其成为地缘政治竞争的舞台和工具,来缓解中美紧张关系。本文原刊于Foreign Affairs,由欧亚系统科学研究会组织编译,供读者参考,仅代表作者观点。
▲ 图源:互联网
2035年,人工智能将无处不在——管理医院、运营航空公司,以及在法庭上互相抗辩。生产力飙升至前所未有的水平,无数企业以难以想象的惊人速度扩张,同时也带来了福祉的巨大进步。随着科技的高速发展,各式各样的新产品源源不断地涌入市场;但与此同时,恐怖分子利用新的智能的、不断发展的网络武器威胁社会,白领集体失业,世界也正变得更加脆弱和不可预测。
一年前,这种想象似乎纯属虚构;而今天,它的实现几乎无可避免。生成式人工智能系统已经可以比大多数人类更清晰、更有说服力地写作,并根据简单的指令生成原创图片、艺术设计甚至计算机代码。而这也仅仅是冰山一角。生成式人工智能的到来标志着一个大爆炸时刻,一场改变世界的技术革命的开始,这场革命将重塑政治、经济和社会。
与以往的技术浪潮一样,人工智能将带来非凡的增长和机遇,同时也带来巨大的破坏和风险。但不同以往的是,它有能力威胁民族国家作为世界地缘政治主体的地位,因此还将引发全球权力结构和平衡的地震式转变。无论承认与否,人工智能的创造者本身就是地缘政治的参与者,他们对人工智能的所有权进一步巩固了新兴的“技术极权”(technopolar)秩序——在这种秩序中,科技公司在其领域内掌握着曾经只属于民族国家的权力。过去十年来,大型科技公司在其创造的数字领域内,已成为实际的独立主权所有者,而人工智能加速了这一趋势,并将其扩展到数字世界之外。技术的复杂性和发展速度让政府几乎不可能及时制定相关规则,而如果政府只要慢一步,就可能永远也赶不上。
值得庆幸的是,政策制定者们已经意识到人工智能带来的挑战,并开始思考如何治理。2023年5月,七国集团(G7)启动了致力于协调人工智能治理的“广岛人工智能进程”(Hiroshima AI process)论坛。6月,欧洲议会通过了《欧盟人工智能法》(EU AI Act)草案,这是欧盟首次全面尝试为人工智能产业制定保障措施。7月,联合国秘书长安东尼奥·古特雷斯(Antonio Guterres)呼吁建立一个全球人工智能监管机构。与此同时,美国的两党政客也都呼吁采取监管行动。但也有许多人同意得克萨斯州共和党参议员特德·克鲁兹(Ted Cruz)在6月时发表的观点:国会“根本不知道自己在做什么”。
不幸的是,关于人工智能治理的许多争论仍然陷于一个危险的虚假困境:利用人工智能扩大国家权力,还是扼杀人工智能规避风险。即使是那些准确诊断出问题的人,也试图通过将人工智能塞进现有或历史的治理框架来解决问题。然而,人工智能不可能像以前的任何技术一样被治理,它反而在改变传统的地缘政治权力概念。
人类面临的挑战很明确:设计出适合这一独特技术的新治理框架。要想实现人工智能的全球治理,国际体系就必须超越传统的主权概念,迎接技术公司加入其中。这些主体可能无法从社会契约、民主或提供公共产品中获得合法性,但如果没有它们,有效的人工智能治理将无从谈起。这是国际社会需要重新思考地缘政治秩序基本假设的一个原因,但并非唯一原因。
像人工智能这样不寻常而又紧迫的挑战需要独创的解决方案。政策制定者在制定适当的监管结构之前,需要就人工智能治理的基本原则达成一致。首先,任何管理框架都需要具有预防性(precautionary)、灵活性(agile)、包容性(inclusive)、不可渗透性(impermeable)和针对性(targeted)。在这些原则的基础上,应建立至少三个相互重叠的治理机制:一个用于确定事实并就人工智能带来的风险向政府提供建议,一个用于防止人工智能的全面军备竞赛,还有一个用于管理人工智能带来的前所未有的破坏性力量。
不管你是否愿意,2035年即将到来。人工智能带来积极进步还是造成消极破坏,取决于决策者现在的所作所为。
1 更快、更高、更强
人工智能与其他技术不同,对权力的影响也不同。它不仅带来了政策挑战,其超进化的特性还让应对挑战越来越难——这就是人工智能的力量悖论。
其进步的速度是惊人的。摩尔定律成功预测了计算能力每两年翻一番,而新一轮人工智能浪潮让这一进步速度显得有些过时。当OpenAI于2018年推出其首个大型语言模型(GPT-1)时,它有1.17亿个参数——这是衡量系统规模和复杂性的标准,而五年后,该公司的第四代模型GPT-4据称有超过一万亿个参数。在过去十年中,用于训练最强大人工智能模型的计算量每年都以十倍的速度增长。换句话说,当今最先进的人工智能模型——也被称为“前沿”(frontier)模型——使用的算力是十年前尖端模型的50亿倍,过去需要数周的处理现在只需几秒钟。未来几年,可处理数十万亿个参数的模型即将问世,而拥有超过100万亿个参数的“大脑规模”(Brain scale)模型——大致相当于人类大脑突触的数量——将在五年内实现。
每个新数量级都会出现意想不到的能力。很少有人预料到,通过对原始文本的训练,大型语言模型可以生成连贯、新颖甚至富有创造性的句子。更少有人预料到语言模型能够谱写乐曲或解决科学问题,而现在有些模型已经能够做到。不久之后,人工智能开发者将有可能成功创建具有自我完善能力的系统——这是这项技术发展轨迹上的一个关键时刻,每个人都应为此驻足。
人工智能模型也在以更少的资源做更多的事。昨天的尖端能力,今天就可以在更小、更便宜、更易用的系统上运行。OpenAI发布GPT-3仅仅三年后,开源团队就创建了具有相同性能水平的模型,但其大小还不到GPT-3的六十分之一,也就是说,运行成本降低至原来的六十分之一,而且每个人都可以在互联网上免费使用。未来的大语言模型很可能会遵循这一效率轨迹,在领先的人工智能实验室耗资数亿美元开发成功两三年后,就能以开源形式提供。
与任何软件或代码一样,人工智能算法比实物资产更容易复制和共享(或窃取),成本也更低。扩散风险显而易见。例如,Meta公司功能强大的Llama-1大型语言模型在3月份推出后没几天就被泄露到互联网上。虽然最强大的模型仍然需要复杂的硬件才能运行,但中端版本可以在每小时几美元租用的电脑上运行。不久之后,还能在智能手机上运行。这种强大的技术从未像现在这样普及得如此广泛、如此迅速。
人工智能与旧技术的不同之处还在于,几乎所有的人工智能都是军、民两用的。许多系统本质上具有通用性,而通用性正是许多人工智能公司的首要目标。他们希望自己的应用能以尽可能多的方式帮助尽可能多的人。但是,能驾驶汽车的系统也能驾驶坦克,为诊断疾病而开发的人工智能可能会创造出一种新的疾病,并将其武器化。安全民用与军事破坏之间的界限非常模糊,这也是美国对中国展开半导体竞争的原因之一。
这一切的发生都是全球性的:人工智能模型一旦发布,就无处不在。只需一个恶性或 “越狱”(breakout)模型就能制造严重破坏。因此,对人工智能的监管不能以修修补补的方式进行。其容易扩散的性质使得个别国家内的监管不可能有效,对其治理不能存在任何漏洞。
更重要的是,建造人工智能的动力(以及这样做的好处)在不断增长,其可能造成的破坏也没有明显的上限。它们可能被用来制造和传播有毒的错误信息,侵蚀社会信任和民主;可能被用来监视、操纵和控制公民,破坏个人和集体自由;也可能被用来制造强大的数字或物理武器,威胁人类生命。人工智能还可能毁掉数百万个工作岗位,加剧现有的不平等并制造新的不平等;通过放大不良信息的反馈循环,巩固歧视性模式并扭曲决策;或者引起意外的、不可控制的军事升级,进而导致战争。
最大风险发生的时间框架也不明确。网络虚假信息是明显的短期威胁;中期内,自动化战争非常可能发生。更长期地看,许多事都还未知:通用人工智能的前景如何?人工智能是否会在各种特定任务中超越人类?人工智能是否可以不受人类控制地进行自我指导、自我复制和自我完善?诚然,危险都是推测性的,但都应当从一开始就纳入治理架构中。
人工智能并不是第一种具备上述强大特性的技术,却是第一种将所有这些特性结合在一起的技术。人工智能系统不像汽车、飞机:是硬件,可以逐步改进,而发生故障最高昂的代价也只是个别事故。它们也不像化学武器或核武器:难以开发和储存,成本高昂,可以秘密分享或部署。随着人工智能系统的巨大优势逐渐不言自明,它们只会变得更庞大、更优质、更便宜、更无处不在。它们甚至还将具备准自主能力——只需极少的人工监督就能实现具体目标——以及潜在的自我完善能力。这些特征中的任何一个都将挑战传统的治理模式;所有这些特征加在一起,将使传统治理模式彻底失效。
2 威力过大,无法叫停
通过改变全球权力的结构和平衡,人工智能使政治环境变得更加复杂。它不仅是普通的新型软件,更一种全新的权力投射手段。某些条件下,它将颠覆现有权力;另一些条件下,它将巩固现有权力。而人工智能的发展还受到不可抗拒的激励因素推动:每个国家、公司和个人都希望拥有某种版本的人工智能。
在国内,人工智能加强了国家对个人数据的收集和商业使用,强化政府压制社会的工具。在国家间,人工智能将成为激烈缘政治竞争的焦点。无论是出于对控制能力、经济潜力还是军事优势的追求,每个拥有竞争资源的政府都会将其设置为战略目标。最缺乏想象力的战略,就是为本土人工智能冠军企业投资,或建造并控制超级计算机和算法。更细致一点的,则是培养特定的竞争优势,如法国对人工智能初创企业的支持,英国利用其世界一流的大学和风险投资生态系统,欧盟引导有关监管和规范的全球对话。
绝大多数国家既没有资金也没有技术来争夺人工智能的领导地位。它们能否获得前沿人工智能,将取决于它们与少数已经富可敌国的企业和有资源国家的关系。这种依赖关系可能加剧当前地缘政治力量的不平衡。最强大的政府将争相控制世界上最宝贵的资源,其他国家将再次被抛在后面。这并不是说只有最富有的人才能从人工智能革命中获益。就像互联网和智能手机一样,人工智能将不受国界限制地扩散,它所带来的生产力提升也将如此。与能源和绿色技术一样,它能使许多不控制它的国家受益,包括那些为生产人工智能投入(如半导体)做出贡献的国家。
然而,在地缘政治的另一端,人工智能霸主地位的争夺将十分激烈。争夺到最后,强大的国家可能会通过合作来消除对彼此的恐惧,阻止可能破坏稳定的技术军备竞赛。但如今紧张的地缘政治环境使得这种合作难上加难。竞争者不仅追求人工智能带来的声望、权力和财富,也担忧其可能带给对手的军事和经济优势。当前,最重要的两个竞争者——中国和美国——正在陷入人工智能发展零和游戏的漩涡,赢家将在几十年后,获得决定性的战略优势。
目前,由于中美之间的竞争关系,和双方缺乏信任的现实,两国都会更倾向于专注加速人工智能的发展,而不是放慢它的速度。某些人工智能行业领导者也在向政府呼吁:“暂停”开发以评估风险,等同于愚蠢的单方面裁军。
这种观点有一个前提假设:国家可以对人工智能进行一定程度的控制。中国有可能做到,因为一些科技公司已经融入了其国家结构。然而,在西方和其他地方,人工智能更有可能削弱而非加强国家权力。少数大型专业人工智能公司控制着这一新技术浪潮的方方面面:人工智能模型能做什么、谁能访问它们、如何使用它们以及它们可以部署在哪里。由于这些公司对自己的计算能力和算法严加保护,只有它们了解自己正在创造的(大部分)东西以及这些创造物的(大部分)功能。在可预见的未来,这几家公司可能会继续保持优势,也可能会因为门槛低、开源开发和近乎零的边际成本,让人工智能无节制地扩散,而被众多小公司所取代。无论前景如何,这场人工智能革命都将政府排除在外。
在一定程度上,其中一些挑战与早期数字技术的挑战相似。互联网平台、社交媒体,甚至智能手机等设备,某种程度上都是在其创造者控制的沙盒中运行的。只要政府拿出政治意愿,就能建立对这些技术的监管制度,如欧盟的《通用数据保护条例》、《数字市场法》和《数字服务法》。但这种监管制度需要欧盟花费十年或更长时间才能落实,在美国也尚未完全实现。人工智能的发展速度太快,政策制定者无法迅速做出反应。毕竟,社交媒体和其他早期数字技术不会自我进化,推动技术发展的商业和战略利益从未以当下的方式与技术结合。
这一切意味着,至少在未来几年内,无论欧盟或美国的政策制定者们做什么,人工智能的发展轨迹都将在很大程度上取决于少数私营企业。换句话说,技术专家,而不是政策制定者和官僚,将拥有控制这股可能深刻改变国家以及国家间关系的力量的权力。这使得治理人工智能所面临的挑战不同于政府面临过的任何挑战,监管平衡要更加微妙,风险也更高。
3 调整目标,进化工具
政府已经落后了。大多数人工智能治理提案都在以传统问题视角,尝试着二十世纪国家为中心的解决方案:政治领导人们围坐在桌边,就规则达成妥协。但这在人工智能问题上是行不通的。
监管工作尚处于起步阶段,仍显不足。欧盟的《人工智能法案》是人工智能治理方面最雄心勃勃的尝试,但该法要到2026年才开始全面实施,届时人工智能模型将取得前所未有的进步。英国提出了一种更为宽松且自愿的人工智能监管方法,但缺乏有效的约束力。这两项举措都试图在全球范围内管理人工智能的发展和部署,而这正是人工智能治理取得成功的必要条件。虽然已经有企业开始做出遵守人工智能安全准则的自愿承诺(译注:7月21日,包括谷歌、微软、OpenAI、亚马逊、Meta、Anthropic、Inflection在内的七家顶级人工智能公司在白宫召开会议,承诺将为消费者创建识别生成式人工智能的方法,并确保在生成式人工智能工具发布前,会测试其安全性),但它们不能替代具有法律约束力的国家和国际监管。
主张通过国际协议来驯服人工智能的人,更偏爱当前核军备控制的方案。但人工智能系统不仅比核武器更容易开发、窃取和复制,而且由私营公司控制。随着新一代人工智能模型比以往任何时候都更快地普及,与核武器进行类比就显得越来越不合时宜。即使政府能成功控制制造最先进智能模型所需的材料——正如拜登政府正试图通过阻止中国获得先进芯片的手段那样——可一旦模型训练完成、投入使用,扩散也不可避免,因为运行比训练需要的芯片要少得多。
要让全球人工智能治理发挥作用,必须根据技术的具体性质、其带来的挑战,以及其运作的结构和权力平衡进行调整。但由于其演变、用途、风险和回报都不可预测,人工智能治理方案不可能在任一时间点完全确定下来。它必须像它试图治理的技术一样,不断创新和进化,并具有那些让人工智能如此强大的类似特性。这意味着人类社会要从头开始,重新思考并建立新的监管框架。
任何全球人工智能监管架构的首要目标都应该是识别和减轻其对全球稳定造成的风险,同时又不阻碍人工智能创新及其带来的机遇。我将这一原则称为“技术审慎主义”。这需要特定机构发挥像金融稳定委员会、国际清算银行和国际货币基金组织等机构类似的宏观审慎作用——在不损害经济增长的情况下识别和减轻危害全球金融稳定的风险。
技术审慎也一样,需要建立机制监管人工智能可能威胁地缘政治稳定的各个方面。机制要以共同原则为指导,而指导原则要既适合人工智能的独特性能,又反映了使科技公司占据主导地位的新技术权力平衡。这些原则将帮助政策制定者要在人工智能不断发展成为一种更普遍力量的过程中,制定更细腻的监管框架。
人工智能治理的首要(或许也是最重要的)原则是预防。顾名思义,技术审慎主义的核心是预防性信条:首先,不造成伤害。最大限度地限制人工智能,意味着放弃其改变生活的优势;但最大限度地解放人工智能,意味着直面其所有潜在灾难性风险。人工智能的风险和回报是不对称的。鉴于人工智能的某些潜在危害规模极大、不可逆转,还具有很强的不确定性,其治理必须致力于在这些风险发生前预防它们,而非在事后减轻它们。这一点尤其重要,因为人工智能可能会削弱一些国家的治理,使其更难制定监管法规。证明人工智能系统在某个合理阈值内安全的责任,应该由其开发者和所有者承担,政府不应承担处理问题的责任。
人工智能治理还必须灵活,以便能够随着其发展和自我改进而调整方向。公共机构往往过度僵化,无法适应变化。就人工智能而言,技术进步的绝对速度将很快压倒现有治理结构跟进的能力。当然,这并不意味着人工智能治理应该借鉴硅谷“快速行动、打破常规”的精神,但应该更贴切地反映其技术本质。
除了预防性和灵活性之外,治理方案还必须具有包容性。这意味着人工智能治理不能完全以国家为中心,而是要邀请实践中监管所需的所有参与者,因为政府既不理解也不控制人工智能。私营科技公司可能缺乏传统意义上的主权,但它们在自己创建和有效管理的数字空间中拥有真正的权力和架构。这些非国家主体不能获得与国家相同的权力,因为国家代表其公民行事,但他们应该成为相关国际峰会的参与方,和人工智能协议的签署方。
这种治理主体范围的扩大是必要的,因为任何排除人工智能权力真正代理人的监管结构都注定要失败。在之前的科技监管浪潮中,企业往往拥有过多空间,使其容易行为过度,进而引发政策制定者和监管机构的严厉反应。但这种活动既没有让科技公司受益,也没有让公众受益。从一开始就邀请人工智能开发人员参与规则制定过程,将有助于建立更具协作性的人工智能治理文化,从而减少事后以成本高昂的对抗性监管进行扼制的必要。
科技公司也不能总是有发言权;人工智能治理的某些方面最好留给政府处理,国家应始终保留对政策决策的最终否决权。政府还必须防范监管俘获(regulatory capture)问题,确保科技公司不会利用其在政治体系中的影响力,牺牲公共利益、促进自身利益。包容性的多利益相关者治理模型将确保决定人工智能命运的参与者们,可以参与规则制定并受其约束。除了政府和科技公司之外,科学家、伦理学家、工会、民间社会组织和其他有知识、有权力、有相关利益的主体,都应该在谈判桌上占有一席之地。“人工智能合作组织”(Partnership on AI,译注:2016年由谷歌、脸书、IBM、亚马逊和微软共同创立)是一个非营利组织,召集了一系列大型科技公司、研究机构、慈善机构和民间社会组织来促进负责任的人工智能使用,它是一个混合、包容性论坛的积极案例。
治理体系还必须尽可能地不可渗透。应对气候变化成功与否取决于所有个体努力的总和,人工智能则不同,其安全性是由最低公约数决定的:单一的突破性算法可能会造成难以估量的损害,而全球人工智能治理的成败则取决于治理最差的国家、公司或技术。任一漏洞、薄弱环节或叛逃者都会为大范围的泄密、不良行为或监管竞相逐底打开大门。因此它必须无懈可击——进入门槛要足够低,吸引所有主体参与;退出成本足够高,以阻止违规行为。
除了覆盖全球之外,人工智能治理还必须覆盖整个供应链——从制造业到硬件、软件到服务,从供应商到用户。这意味着对其价值链上的每个节点都要进行技术审慎监管,从芯片生产到数据收集,从模型训练到最终使用,以及特定应用中的所有技术环节。不可渗透性的标准,是不存在任何监管灰色地带。
最后,治理要有针对性,不能一刀切。人工智能是一种通用技术,它会带来多元威胁。单一治理工具不足以解决人工智能的各种风险。在实践中,要确定哪些工具适合应对哪些风险,就需要对其所有可能产生的影响进行分类,研究治理每种影响的最佳方案。例如,某些应用是进化性的,会加剧侵犯隐私等已有问题;另一些应用则是革命性的,会造成全新的危害。有时,最好的干预点是数据收集过程;有时候,控制芯片销售,确保它们不落入坏人之手则更有用。处理虚假、错误信息所需要的工具,与处理通用人工智能和其他不确定的技术风险不同。某些情况下,宽松的监管和志愿性指导能发挥作用;另一些情况下,政府需要严格执行规定。
要做到以上几点,需要对相关技术有深入的了解,并掌握最新的知识。监管机构和其他部门需要对关键人工智能模型进行监督。他们需要一个审计系统,不仅可以远程跟踪其能力,还可以直接访问核心技术,这反过来又需要合适的人才。只有这样,才能确保对新的人工智能应用进行主动评估,理解明显的风险以及潜在的破坏性连带后果。换句话说,精准治理必须是知情治理。
4 技术审慎的必要性
基于这些原则,应该至少建立三个人工智能治理机制,每个机制承担不同的任务,掌握不同权限,组织不同主体。它们在设计上要新颖,但可以从现有安排中寻找灵感,以应对其他包括气候变化、武器扩散和金融震荡在内的全球挑战。
第一个机制要侧重事实调查。采取全球科学机构的形式,就人工智能是什么,以及它带来什么样的政策挑战等基本问题,向政府和国际机构提供客观建议。如果没有人能够就其定义或可能危害达成一致,就不可能形成有效的政策。气候变化的应对机制可以作为参考。为了建立气候谈判的共享知识基准,联合国成立了政府间气候变化专门委员会,赋予其一项简单的任务:为政策制定者提供“对气候变化的科学基础、影响和未来风险,以及适应和缓解方案的定期评估”。人工智能需要一个类似的机构来定期评估人工智能的状况,公正地评价其风险和潜在影响,预测情景,并考虑政策方案,以保护全球公共利益。与政府间气候变化专门委员会一样,该机构要得到全球认可,要具有科学(对于地缘政治)独立性。它的报告可以为人工智能的多边谈判提供信息。
第二种机制用于管理主要人工智能强国之间的紧张关系,并防止危险先进系统的扩散。这一领域最重要的国际关系是中美关系。无论情况如何理想,这两个竞争对手也很难合作。然而,在地缘政治竞争加剧的背景下,一场不受控制的人工智能竞赛可能毁掉就治理达成国际共识的所有希望。中美合作最有可能的领域,是控制可能危及国家主权的强大系统。在极端情况下,失控、自我复制的通用人工智能的威胁,是协调和合作的最强动力。
中美应该致力于建立共同领域,或者是由第三方进行建议和监管的护栏机制。这一机制下,军备控制机制中常见的监控和验证方案可能适用于最重要的技术引入阶段,特别是与计算硬件相关的引入,例如先进的半导体和数据中心。经验证明,监管关键环节有助于遏制危险的军备竞赛,也可能有助于遏制现在可能更加危险的人工智能竞赛。
但人工智能大多数已经去中心化,因此这是一个全球公共问题。人工智能开发的分散性和该技术的核心特征(例如开源、易扩散)增加了其被网络犯罪分子、国家支持的行为主体和独狼们武器化的可能性。这就是为什么世界需要第三种治理机制,以在危险干扰出现时进行反应。这一机制可以参考金融机构用来维持全球金融稳定的方法。
金融稳定委员会(Financial Stability Board,译注:20国集团在伦敦金融峰会后成立的组织)由世界各国的中央银行主管、财政部长和监管机构组成,致力于通过评估系统性脆弱,并协调国家和国际机构采取必要行动,解决问题,防止全球金融动荡。一个类似的人工智能技术稳定委员会,可以在技术快速发展中维持地缘政治稳定。在国家监管机构和国际标准制定机构的支持下,它可以汇集专业知识和资源,以预防、应对人工智能相关危机,降低传染风险。它同时也可以直接与私营部门接触,因为重要跨国技术主体在维护地缘政治稳定方面发挥着关键作用,就像银行在维护金融稳定方面发挥的系统性作用一样。
这一机构的权威源于政府支持,这能有效防止全球科技企业通过参与监管套利,或利用注册地的地区保护机制。重视某些科技公司的系统重要性,并不意味着扼杀初创企业或新兴创新者。相反,建立从全球治理机构到这些科技企业的唯一直接沟通途径,将提高监管执行和危机管理的有效性,有利于整个生态系统。
维持技术地缘稳定性的制度也将填补当前监管中的一个危险空白:管理开源人工智能的责任。一定程度的在线审查是必要的。如果有人上传极其危险的模型,该机构必须拥有足够的权力和能力来将其删除或指示相关国家的管理者这样做。这是中美合作的另一个潜在领域——在开源软件中嵌入安全约束,例如:智能模型不能指导用户开发化学、生物武器,或制造大流行病原体。
另外,中美在预防危险智能全球扩散方面也可能有合作的空间,某些干预主义网络工具可以用于这一领域。
这些机制都必须全球共同运作,并得到所有主要行业参与者的支持。它们要足够专业化,以应对真正的人工智能世界;还要足够灵活,随着人工智能的发展不断更新其知识。这些机制合力,可以让世界朝着人工智能技术审慎管理迈出决定性的一步。而这三个机制也只是最关键的。其他监管机制,例如:“了解客户”(know your customer)的透明度标准、准入许可、安全测试协议,以及产品注册、审批流程,应该在未来几年内在行业中得到应用。关键在于创建灵活、多面的治理机构,不受传统或想象力的约束,因为技术人员是不会受这些约束的。
5 促进最好的,防止最坏的
这些监管方案都不容易实施。尽管全世界的领导人都在谈论监管人工智能的必要性,但仍然缺乏这样做的政治意愿。目前,很少有分量足够的支持这赞成遏制人工智能——所有的激励因素都导向政府不作为。如果设计得当,上述人工智能治理机制可以有利于所有利益相关方的,建立原则和行业结构,促进人工智能良性发展,同时防止最坏的情况发生。而出现不受控人工智能的道路,会给全球稳定造成不可接受的风险,进而伤害商业环境,与所有国家的利益背道而驰。
强大的人工智能治理不仅可以减轻其社会风险,还可以通过避免其成为地缘政治竞争的舞台和工具,来缓解中美紧张关系。同时,它还能达成更深远、更持久的目标:建立一个解决其他颠覆性新兴技术的模版。人工智能可能是变革的独特催化剂,但它绝不是人类即将面临的最后一个颠覆性技术。量子计算、生物技术、纳米技术和机器人技术也有可能从根本上重塑世界。成功治理人工智能,将帮助世界成功治理这些技术。
二十一世纪内,不会有多少技术会像人工智能这样,带来的机遇令人畏惧又充满希望。上个世纪,政策制定者开始建立全球治理架构,希望这一架构能够应对时代的任务。现在,我们必须建立一个新的治理架构,以遏制和利用这个时代最强大、最具潜在决定性的力量。2035 年即将到来。没有时间可以浪费了。
*文章原刊于Foreign Affairs,原题为:“The AI Power Paradox: Can States Learn to Govern Artificial Intelligence—Before It’s Too Late?”