工业互联网

智能制造背景下风险控制 约瑟夫·奈:人工智能风险管控须加快步伐

小编 2024-10-09 工业互联网 23 0

约瑟夫·奈:人工智能风险管控须加快步伐

参考消息网8月5日报道 世界报业辛迪加网站7月31日刊发题为《人工智能与国家安全》的文章,作者是美国哈佛大学肯尼迪政府学院前院长约瑟夫·奈。文章摘编如下:

众所周知,技术的发展速度要快于政策或外交,尤其是在私营部门激烈的市场竞争推动下。但涉及应对与当今人工智能相关的潜在安全风险,政策制定者需要加快步伐。

许多科学家将人工智能视为具有变革意义的工具。像过去出现的通用技术一样,人工智能具有巨大的潜力,既可以为善,也可以作恶。在癌症研究中,人工智能在几分钟内整理和总结出来的研究成果,多于人类团队需要几个月才能完成的工作量。同样,人工智能可以可靠地预测蛋白质折叠的模式,同样的工作,人类研究人员可能需要好几年才能完成。

但人工智能也降低了不合群者、恐怖分子和其他可能希望造成伤害的不良行为者的成本和门槛。美国兰德公司最近的一项研究警告,“复活类似天花的危险病毒,边际成本可能只需要10万美元,而开发一种复杂的疫苗,边际成本可能超过10亿美元”。

此外,一些专家担心,先进的人工智能将比人类聪明得多,以至于人工智能将控制我们,而不是我们控制人工智能。如今狭义的人工智能带来的风险越来越大,已经需要更多的关注。

40年来,美国阿斯彭战略研究集团每年夏天都会召开会议,集中讨论一个重大的国家安全问题。过去会议的主题包括核武器、网络攻击和中国的崛起。今年,我们关注的是人工智能对国家安全的影响,探究人工智能的好处和风险。

人工智能的好处包括能够更好地整理大量的情报数据,加强预警系统,改善复杂的后勤系统,还有检查计算机代码以提高网络安全。但也存在很大的风险,比如自主武器的进步,编程算法的意外错误,以及可能削弱网络安全的对抗性人工智能。

自主武器构成的威胁尤为严重。尽管在联合国进行了十多年的外交工作,各国还是未能就禁止致命的自主武器达成一致。国际人道主义法律规定,各国军队需要区分对待武装战斗人员和平民,五角大楼长期以来一直要求,在发射武器之前,必须有人类参与决策过程。但在某些情况下,比如防御来袭的导弹,就没有时间让人类干预。

考虑到事情发生的背景很重要,人类必须(在代码中)严格定义武器能做什么,不能做什么。换句话说,应该保证“决策过程本身”由人类决定,而不仅仅是“在决策过程中”有人类参与。这不是一个单纯的假设问题。在乌克兰战争中,俄罗斯方面干扰了乌克兰军队的信号,迫使乌克兰方面给设备编程,让武器自主决定何时开火。

人工智能最可怕的危险之一是在生物战或生物恐怖主义中被使用。当各国在1972年同意禁止生物武器时,人们普遍认为生物武器没有用,因为有“反扑”自己的风险。但有了合成生物学,就有可能研制出能摧毁一个群体而不影响另一个群体的生物武器。或者,假如有个能使用实验室的恐怖分子,他可能只是想杀死尽量多的人,就像1995年发生在日本的东京地铁沙林毒气恐袭事件。(他们当时使用的是沙林毒气,不具有传染性,但现代的恐怖分子却可以利用人工智能制造传染性病毒。)

在核技术方面,各国于1968年达成《不扩散核武器条约》,目前已有191个缔约国。国际原子能机构定期检查各国国内的能源项目,以确认这些项目仅用于和平目的。尽管冷战时期竞争激烈,但核技术方面的主要国家仍一致同意,对最敏感的设施和技术的出口实行限制。尽管人工智能与核技术之间存在明显差异,但核技术的先例为人工智能指明道路。(编译/胡雪)

梁 正|新兴技术视域下的人工智能善治——发展现状、风险挑战与治理思路

作者简介

梁正,清华大学公共管理学院教授、人工智能国际治理研究院副院长。研究方向为新兴技术治理、科技创新政策、研发全球化、标准与知识产权。主要著作有《科学、技术与创新经济学》、《黑镜与秩序:数智化风险社会下的人工智能伦理与治理》(合著)、《数字双赋打通韧性城市建设“最后一公里”》(论文)、《互联网平台协同治理体系构建——基于全景式治理框架的分析》(论文)等。

摘要

人工智能正在引发一场远超乎于技术场域的时代变革,以大模型为代表的生成式人工智能塑造着未来的主要技术进路。尽管我国已成为一个人工智能大国,但在核心理论创新、基础底座建设、关键软硬件和生态方面还有待提升,迈向人工智能强国还有很长的路要走。在此情况下,如何在保障人工智能有力、有序、有益发展的同时,实现对人工智能的善治是亟需回应的关键问题。因此,平衡好发展与治理之间的关系,践行价值对齐的伦理思路,吸收人工智能国际治理有益经验,探索一条理念开放、主体多元、对象分层、工具灵活的治理新思路,成为探索人工智能善治路径的核心命题。

引言

任何技术发展都会经历开始孕育—快速发展—成熟完善—稳定并趋于退化的生命周期。任何新技术的成长都不是一蹴而就的。新技术从旧技术中孕育,汲取旧技术优势将其保留,摒弃旧技术的劣弊。技术进步的本质在于从一种技术系统到另一种技术系统的过渡。从来也没有孤立存在的“一种技术”,一种技术总是与其他技术联系在一起。人工智能技术正在塑造新的技术体系,引领以其为核心的技术“中心环绕体系”变革,成为变革社会的力量。人工智能作为一种新兴的颠覆性技术,其技术治理也难以摆脱科林格里奇困境,这使决策者面临两难选择。尤其是对生成式人工智能(AIGC)而言,一方面,在技术得到深度开发和广泛应用之前,我们无法预知技术可能产生的后果;另一方面,当技术已经深刻地改变了人类社会时,我们又无法确保对其的控制和掌控。这样一种现实性迫切呼吁适应性的治理方式,敏捷治理作为应对生成式人工智能新态势的治理模式,正是在这样的背景中产生,并成为被持续探索的治理路径。

生成式人工智能技术发展现状概述

人工智能研究既是人类对外部世界的求知,更是破解人类编码、深刻地自我认知的探索过程。对人工智能的理解也随着这一探索过程不断深化:从最初的计算智能(快速逻辑运算、海量储存能力),发展到感知智能(“听”“说”“看”“触”能力),再到更高级的认知智能(理解、诠释能力)阶段。数理逻辑推理、人工神经网络的构建、奖惩机制的行为仿生等分别将人工智能研究向前推进。丹尼特(D. C. Dennett)抛出轮子是否存在于自然界这一问题引出了人工智能发展的“认知之轮”问题。不过,实践表明任何单一进路通向成功的可能性都是微乎其微的,基于多重思路的融贯,才有了当今的人工智能大模型。纵观生成式人工智能的创新与发展,总体而言可以有如下概括。

其一,生成式人工智能自其发布以来在技术上已经取得了长足的进步。从数量上看,自2019年以来,全球已发布基础大模型百余个,其中美国发布模型多达182个,中国发布30余个。从模型质量看,人工智能系统的推理能力已经有了极大的提升。美国和加拿大的研究人员开发了MMMU系统(Massive Multy-Discipline Multimodal Understanding and Reasoning Benchmark for Expert AGI),即面向专业AGI大规模多学科多模态理解和推理基准测量。它包含约11500道大学水平的问题,涉及六个核心学科(艺术与设计、商业、科学、健康和医学、人文和社会科学以及技术和工程),问题形式多样,是迄今为止对人工智能感知、知识和推理最严格的测试之一。通过该测试可以看出,其中多个大模型都表现良好,甚至在一些领域大模型能力逐渐接近人类专家(如图1所示)。这充分展现了大模型的技术潜力和未来可见的发展前景。从模型应用角度看,大模型的进化速度和能力提升也是惊人的。例如,图像生成模型Midjourney短时间内已经迭代数次,显示出生成超现实主义图像能力的显著提升,如今其所创建的图像已逼真度惊人。

来源:Artificial Intelligence Index Report 2024, https://aiindex.stanford.edu/report/

图1 MMMU大模型评测对比

其二,产学研合作日益紧密,产业界作为大模型发布的主力军扮演着越来越重要的角色。从模型发布看,自2019年以来,谷歌在基础模型发布数量上领先,共计40个,其次是OpenAI,共计20个。清华大学在非西方机构中排名第一,发布基础模型共计7个,而斯坦福大学在美国学术机构中排名第一,发布基础模型共计5个。值得注意的是,2014年前后,学术界在机器学习模型的发布方面还处于领先地位。此后,产业界便占据了主导地位。2023年,产业界发布了51个引人关注的机器学习模型,而学术界只有15个。特别需要指出,2023年有21个优质大模型来自产学研合作,创下新高。现在,创建尖端的人工智能模型需要大量的数据、计算能力和财务资源,而学术界单方面已无法保障这些资源供给,这也促成了在大模型研究和发布上的产学研合作。

其三,大模型的模型训练不仅耗资巨大,其过程也不环保,这也使得模型建构竞争饱受环保主义的诟病。图2直观地显示了AI指数估算的所有AI模型的训练成本,模型训练成本随着时间的推移急剧增加。AI模型的训练成本与其计算要求之间存在直接关联,计算训练需求越大的模型,训练成本就越高。同时,大部分基础模型开发商(如OpenAI、谷歌、Anthropic和Mistral)都没有报告训练中的碳排放量。训练人工智能模型的环境影响可能难以估量。虽然推理的每次查询排放量可能相对较低,但当模型每天被查询数千次甚至数百万次时,总体应用耗能可能会超过训练耗能。当前对模型碳排放的研究还很少。Luccioni等人于2023年发表的一项研究是较早全面评估模型排放的研究之一。图3展示了各种模型任务中1000次推理的碳排放量,表明图像生成等任务的碳足迹远高于文本分类。

来源:Artificial Intelligence Index Report 2024, https://aiindex.stanford.edu/report/

图2 大模型训练资金投入对比

来源:A. S. Luccioni et al., "Power Hungry Processing: Watts Driving the Cost of AI Development?" https://doi.org/10.48550/arXiv.2311.16863

图3 大模型在不同任务情况下的碳排放

综合斯坦福大学年度《人工智能指数报告》及相关学术研究不难看出,生成式人工智能呈现井喷式发展的态势。在国内,各类垂直大模型应用更是如雨后春笋般在市场涌现,该现象表明市场对生成式人工智能应用前景的乐观估计。但也必须指出,大模型自其诞生以来亦伴随着诸多隐患和风险。如何平衡发展与治理,构建“两个轮子走路”的人工智能发展与治理体系迫在眉睫。本文将在总结风险挑战的基础上,通过中美欧人工智能治理的比较研究,探索适合我国国情的人工智能治理之路。

人工智能应用的风险挑战及综合效应

生成式人工智能通用性、涌现性、多模态的新特征势必带来新一轮的革命性变化,其影响不仅是技术层面的,更是经济、政治、社会等各层面的。生成式人工智能具有强渗透性,对社会变革的整体影响是系统性的。它势必推动产业的数智化转型升级,产业布局面临又一次新的重大调整,数据、算力、算法相关产业发展将大幅加速。AIGC促进了内容生产方式的颠覆性变革,通过降低内容创作门槛使技术“平民化”,人机分工的混合劳动力形式将成为劳动主导范式。生成式人工智能将助推智力密集型服务产业规模化发展,使人工智能成为专用领域“顾问”,并作为“外脑”赋能专业场景高效作业,通过建模、训练、优化等步骤推动知识模型生成。然而,也正是因为其势如破竹的变革力,导致风险挑战一直伴随技术发展并日益凸显。

总体看,人工智能的潜在风险可以主要划分为两类。一类是综合性风险,涵盖了个体、社会、国家、人类四个层面。从个体层面看,包括算法歧视和偏见、错误信息、隐私泄露、深度伪造和诈骗、知识产权争议等;从社会层面看,主要有劳动力结构挑战、数字鸿沟和社会不公、引发劳动者心理问题、资源消耗增加碳排放量等;从国家层面看,包括意识形态渗透、武器制造引发失控风险、国际权力分布不均衡加剧等;从人类层面看,引发了对人类未来地位的思考、硅基和碳基冲突、人机互构新理念等。另一类是特定场景中的风险,主要有电商场景中的虚假宣传与欺诈、大数据杀熟、推荐误导、过度消费等;医疗领域的不可解释风险、歧视偏见、隐私泄露、反馈与监管风险等;教育领域的冲击应试教育、学生过度依赖、学术诚信危机、重塑教育生态等;科研领域的冲击人文社科研究、新的知识生产方式以及相应的科技伦理挑战。

我们可以从人工智能的产业效应、政治效应、社会效应三个层面对人工智能的社会影响和综合效应作一相对整体的把握。

人工智能应用的产业风险与效应。 人工智能技术已经成为全球经济增长的新动能和主导力量,对传统经济模式的转型、全面提升劳动生产率、新价值体系下的高质量发展发挥着举足轻重的作用。宏观上,“技术奇点”刺激“经济奇点”。一方面,人工智能技术在制造业等生产领域发挥积极作用,直接影响生产力质的方面;另一方面,人工智能技术通过改变劳动方式变革生产关系,适应新技术推动下的生产力发展。马克思认为劳动生产力是由多种情况决定的,其中包括:工人的平均熟练程度,科学发展水平和它在工艺上的应用程度,生产过程的社会结合,生产资料的规模和效能,以及自然条件。智能技术渗透于生产活动的部分要素,如生产设备、组织形式、智能供应链等,在经济增长中的贡献是直接的、强劲的。人工智能技术应用日益成为衡量社会经济发展的尺度,成为产业结构和社会结构是否跟上时代潮流的重要指标。

智能技术催化生产制造适应智能社会的新变革。智能化生产和定制化生产缩短了生产时间和销售时间,加速了资本周转,优化了资本结构。加上大模型的加持,其能够通过大数据与智能分析平台,利用云计算将工业机器生产数据转化为有用信息,实现生产的高效、精确、环保、绿色。大量智能设备的引入提升了工厂生产商品的精确性,优化了产品质量。同时,产销流程尽在掌握,生产过程的可控性得以提升,生产线数据在智能技术的帮助下被采集、整理、分析,使得生产计划和生产进度的安排更加合理。此外,智能化还提升了产品的后期服务水平。生产中智能产品与物联网连接,记录已进行的加工步骤和质量指标,将产品指引向最优路径,生产完成后,智能产品通过在线连接的方式与制造企业后台服务流程保持联系。

人工智能应用的政治风险与效应。 温纳的技术政治学认为,技术对政治力量、政治格局具有影响力。人工智能对政治的影响力是前所未见的。近年来美国挑起了中美之间的科技战、金融战、贸易战、舆论战等一系列激烈竞争博弈,其中科技战为核心领域,科技战中又以芯片制造和通讯安全为中心的技术战影响巨大,引发了全球供应链的动荡。人工智能已经成为国与国之间、联盟之间、地区之间的主要竞争内容。与之相伴的是国家安全和军事实力层面的智能技术竞争,任何一个大国都不想在这场决定命运的竞争中丢失主动权。上述情况使得智能技术的政治性凸显。

人工智能关系国家安全。随着国家安全概念被泛化,尤为明显的是,数据的控制和运用已经不再单纯是个经济问题,而是涉及国家安全,例如,数据可能被他国用于情报分析。数据主权是一个国家对其行政辖区内个人、企业和组织所产生的数据拥有的最高权力。谁掌握了数据,谁就拥有了数据主权。2022年7月,国家互联网信息办公室对滴滴全球股份有限公司依法作出网络安全审查相关行政处罚的决定,其中涉及的一项违法违规行为即“违法违规运营给国家关键信息基础设施安全和数据安全带来严重安全风险隐患”。人工智能在全球范围内引发了一场史无前例的关系国家安全的科技竞争,经济全球化面临前所未有的考验。

人工智能正在改变国家治理模式。人工智能技术为国家的高效运行提供了新的基础条件。它有助于完善国家治理体系,使之在刚性治理和柔性治理之间获得平衡。智能技术或直接或间接地转变了政府职能。这主要得益于人工智能在很大程度上打开了权力“黑箱”,政府信息公开保障了公民的知情权,权力的运行、流程、决策渐趋开放,民众开始深入了解政治运行机制。人工智能推动了公民体系的健全发展。民众拥有了更多渠道以获取各方面的政治、政策信息,这促进了公民意识的觉醒。这就要求政府必须应对新情况,重塑角色,从传统的管理者转变为服务者、协调者甚至合作者,加强与其他治理主体间的信息与资源共享、合作共治。

人工智能发展对全球治理提出了新挑战。人工智能时代,全球体系的领导权正在出现新变化。从权力逻辑看,美国在人工智能技术领域仍有强大实力,中国虽正在赶超但仍有差距,发达国家特别是美国希望锁定其在智能技术领域相对于欠发达国家的优势。因此,西方发达国家在智能技术上仍旧保持着主导权和话语权。从冲突逻辑看,生成式人工智能的多模态发展能够改善文明间的对话状况,不同文化群体交流的可能性和概率提升,进而也可能形成新的冲突和适应性问题。这对全球治理提出了新要求和新挑战。为了应对霸权逻辑,仅靠在国际社会中呼吁平等、公平和正义的价值观无益于问题的实质性解决。需要在国家之间开展合作,发挥国际组织在全球治理中的功能。为了应对冲突逻辑,要寻求国际社会在智能技术发展中的共识,通过协商机制应对智能化过程中的不和谐因素,提出新的符合全球发展利益的人工智能发展新方向。

人工智能应用的社会风险与效应。 社会治理步入智能化时代,人工智能被用于社会治理的各个方面。总体上,人类步入了智能社会。自主系统已经部署在我们最重要的社会机构中,然而,还没有统一的方法评估此类应用对人类社会的持续性影响。

人工智能重塑了劳动结构以及不同层次劳动者的劳动过程。人工智能可能将会取代体力劳动,甚至部分脑力劳动。随着智能技术应用的不断深化,工人的工作形式从主导操作性向辅助操作性转变。与传统劳资关系相比,智能技术背景下的劳资关系在劳动条件建立、劳动管理方式和劳动报酬获取方式上出现了很多新变化。人工智能对就业的影响是显而易见的,不仅重塑了劳动结构,还在结束某些旧行业、就业岗位的同时,创造新的就业。根据OpenAI的研究,未来受影响最大的行业是数据处理、信息服务、出版业和保险行业,对于80%的美国人而言,至少有10%的工作任务会受到影响。最近备受关注的自动驾驶汽车引发的网约车司机对失业的恐慌,事实上已经传递出一个信号,即人工智能引发的失业问题已经不再是未来话题,必然掀起新一轮对人工智能代替劳动就业的讨论。也有学者对人工智能对就业的冲击持乐观态度。例如,戴文波特(T. H. Davenport)认为增强人工智能应用有利于业务流程和模型的快速创新。一些关于自动化的研究表明:一方面,人工智能倾向于完成自动化任务,而非取代整个工作流程;另一方面,大多数管理人员并不希望大规模的自动化和智能化。这使人类面临一个艰难的选择:是改变我们的经济体制以应对由此产生的社会动荡并保持经济增长,还是承受一个非常困难的时期,同时目睹普遍贫困和提高生产力的矛盾。

人工智能正在变革现有分配方式。其一,人工智能正在改变市场结构,使掌控数据的大企业在市场的信息不对称上占有绝对主动权,进而让该类企业获得更多盈利。高技术企业之所以能比以往有更多发展机会,往往是利用了数据优势地位提升市场份额,少部分人利用智能技术优势获取巨额利润,导致贫富差距进一步拉大。其二,智能化对不同技能水平劳动者收入的影响不同。就目前的情况看,智能化主要取代的是低技能劳动者。随着智能化的深入,尤其是大模型的推广,部分高技能劳动者也会在一定程度上受其影响。其三,从生产要素看,资本和技术成为主导要素,财富向少数掌握资本和技术的群体流动。由于前两点,智能技术对市场结构的冲击和对劳动力成本的拉低使拥有不同生产要素群体的收入差距进一步拉大。智能技术造成了分配的不均衡,进而影响社会公平。

人工智能引发的一系列社会变化、社会问题都需要再次依靠人类智慧善用智能技术进行社会治理。这从上述智能革命对全球治理、国家治理和政府转型的影响中便可见一斑。社会结构、劳动结构、社会关系、社会公平从来不是社会发展面临的新议题,只不过在智能社会背景下,出现了新挑战。因此,智能时代呼吁智能治理更好地应对新挑战。智能治理包括反治理(智能低效、技术怠工、智能破坏、官僚主义智能化、过度治理)和再治理(防范专家权力过大的政治风险),对社会的正常运行所发挥的作用是建设性的。继续在理性与感情、自我与他者的交际中争论智能革命的社会问题及应对方案问题,是极其有益的。

实现人工智能善治的敏捷治理思路

人工智能的国际治理经验。 人工智能治理日益成为国际竞争的战略要地。一方面,美国利用其全球霸权进行“长臂管辖”,试图从芯片管制、标准规则等方面扼制我国人工智能发展;另一方面,各国都在人工智能治理领域积极运作、抢占先机,因为治理背后紧密关联的是标准与规则制定,治理主动权直接关系发展主动权。欧盟与美国在人工智能治理领域扮演着引领者的角色。

欧盟作为世界范围内人工智能立法的领跑者,在《数字市场法案》(DMA)、《通用数据保护条例》(CDPR)等文件基础上,积极推动统一立法工作,近期《人工智能法案》取得重要进展,欧盟委员会和27个会员国就该法案达成协议。该法案自2021年提出以来,经过了长时间的讨论、协商谈判,为人工智能治理提供了全球首部硬法,使得欧盟在安全、可信、有道德的人工智能领域成为国际规则制定的领跑者。欧盟在技术和产业均不够发达的情况下,通过规则制定,一方面,填补了人工智能道德领域的空白,成为全球标准制定者;另一方面,也为自身人工智能发展提供了基本保障,以避免其他国家人工智能产品的冲击和风险。

《人工智能法案》以保护人的基本权利为核心,围绕6项基本原则:人类主体和监督,技术稳健性和安全性,隐私和数据治理,透明度,多样性、非歧视和公平,社会和环境福祉。根据人工智能系统对公民基本权利的威胁程度进行分级,采取分级治理的监管模式。该法案将人工智能风险划分为四个等级:对人类安全和权利有明显威胁应被彻底禁止的不可接受风险;对个人健康、安全及基本权利有重大危害影响的高风险;使用者能意识到与人工智能互动并自主判断的有限风险;除上述之外的合规却存在一定风险的轻微风险。值得注意的是,欧盟提倡实现监管和发展的平衡,对高风险系统的监管是该法案的核心,并将ChatGPT划定为高风险的人工智能系统。

欧盟的《人工智能法案》也受到了一些质疑,质疑主要集中于高风险人工智能系统监管方式的可操作性上。此前《人工智能法案》推进相对顺利的关键在于,AI监管和发展并不冲突。欧盟延续GDPR理念,将数据安全治理体系作为监管核心,以用户个人隐私为主的数据安全保护主要在商业领域,而欧盟国家人工智能介入产业发展并不以商业应用为主。如德国只专注于生产制造业中的人机协同,不会出现个人隐私数据问题;法国以人工智能教育和研发为主,商业应用虽不少,但也并非其主要人工智能布局领域。但当下情况正在发生变化,基础模型的出现导致欧盟AI监管和发展出现本质冲突。ChatGPT展现的巨大潜力,预示着基础模型将对产业产生颠覆性影响,很可能导致欧盟原先的人工智能产业布局重新调整。换言之,欧盟不确定未来是否也会需要开发、利用大模型来实现传统产业的转型升级,而对于基础模型的严格监管很可能导致欧盟在未来人工智能产业化时代落后甚至被淘汰。

美国对人工智能的监管要求较少,主要以安全原则为主,结合“联邦—州”二元立法结构,建立符合产业现状的治理模式。美国的人工智能治理强调个人隐私保护和产业发展的平衡,将提升透明度和反对歧视作为重要准则,利用技术标准和规则指南促进行业自律。相较于欧盟,美国的国家立法意愿并不强烈。

美国的人工智能治理展现出以下三个特征:一是以行政令为主,相比于出台具有极强约束力的法律文件,更侧重于提出AI监管原则和框架,如2020年发布的《人工智能应用监管指南》提出10项AI监管原则,2022年发布的《人工智能权利法案蓝图》提出负责任地使用AI路线图,2023年发布的《人工智能风险管理框架》提供了可参考的AI风险管理框架。2023年9月,美国第一个严格、全面的立法蓝图——《两党人工智能立法框架》被提出,但尚未被国会通过。

二是地方立法较多,美国已经有众多州推出了关于人工智能的立法,其中马里兰州、加利福尼亚州、马萨诸塞州、华盛顿州都已通过超过5部的立法。

三是以行业自律为主,相较于监管,美国更关心人工智能产业的创新发展。2023年以来美国行业自律变得更加主动,科技巨头主动寻求与相关机构进行合作,如2023年8月,美国白宫与7家顶级人工智能公司,包括谷歌、微软、亚马逊、Meta、OpenAI、Anthropic和Inflection达成共识,各公司都同意在开发人工智能方面作出一系列自愿承诺,包括允许独立专家在公开亮相之前评估工具,研究与人工智能相关的社会风险,并允许第三方测试系统漏洞。

与此同时,美国在人工智能立法方面也有所动作。2023年10月,民主党和共和党参议员联合提出两党法案,要求创新主体对AI生成的内容和聊天机器人进行明确标注和披露;要求开发人员在AI生成内容上添加清晰且显著的标签;联合来自政府、学术界、媒体界和AI开发的领导者成立一个工作组,重点关注识别AI生成内容的最佳实践和披露情况。同月,总统拜登签署的《关于安全、可靠和值得信赖的开发和使用人工智能行政令》提出了8项目标,要求15家领军企业自愿承诺推动安全、可靠、可信的人工智能发展。同年11月又推出了《2023年人工智能研究、创新和问责法案》,鼓励人工智能创新的立法举措和建立问责框架。该法案提出人工智能系统分类方法、透明度要求及相应监管手段,也透露了未来美国生成式AI的监管方向主要是对“为人类作者和人工智能生成的内容提供真实性和出处信息”的手段的开发和标准化。

我国人工智能治理经验。 我国对人工智能的治理历经了摸索治理理念、对象、主体、工具的探索式治理;以柔性规制方式为我国人工智能治理的基本态度而面向国际社会的回应式治理;通过多部门联动出台法律法规等硬性规制工具的集中式治理;以及适应技术变化,主动采取刚柔并进,增强社会抗风险韧性的敏捷式治理这四个阶段。

在回应式治理阶段,针对国内行业问题,我国出台了一系列软性规则。如《新一代人工智能治理原则——发展负责任的人工智能》《国家新一代人工智能标准体系建设指南》等,坚持以创新发展为导向,积极推动行业发展,塑造了有利于人工智能发展的大气候;再如《新一代人工智能发展规划》《促进新一代人工智能产业发展三年行动计划(2018-2020年)》的出台,为人工智能发展规划了明确的时间表与路线图。在集中式治理阶段,我国推动各部门联动,针对性地采取整治措施,对企业的违规行为进行了规范和整顿,并相继在数据维度、算法维度、平台维度颁布了一系列的法律法规,同时及时更新了行业标准与伦理规范。

从全球范围看,我国较早制定了人工智能国家战略,积极推动人工智能治理工作,坚持多维度、多领域、多层次的整体治理方针。重视整体规划,制定了国家级的人工智能发展规划;加强机构建设,成立了国家新一代人工智能治理专业委员会;关注垂直领域,出台相关政策和举措促进发展与治理的平衡;重视法律法规的完善,由国家互联网信息办公室主导监管规制;参与国际治理,积极在国际舞台发出中国声音。

总而言之,我国现阶段人工智能治理采取了软硬法兼施的路径。国家立法上,我国先后颁布了《中华人民共和国网络安全法》《中华人民共和国数据安全法》《中华人民共和国个人信息保护法》,下一步应积极推进人工智能立法工作,集思广益探讨人工智能法草案。监管规制上,我国先后发布了《关于加强科技伦理治理的意见》《生成式人工智能服务管理暂行办法》《科技伦理审查办法(暂行)》《全球人工智能治理倡议》,接下来应落实软法规制,促进原则、标准、指南、意见的落地,助力人工智能健康发展。地方举措上也有诸多进展,如北京市人民政府办公厅印发了《促进北京市通用人工智能创新发展若干措施》,杭州市人民政府办公厅印发《关于加快人工智能产业创新发展的实施意见》等,支撑产业创新生态,发挥典型示范引领作用。总体上,我国人工智能治理形成了中央与地方合作、公共部门与私营部门协调的多层次整体布局。

然而,随着人工智能时代的到来尤其是生成式人工智能的快速发展,我国人工智能治理工作也面临着新问题、新挑战。仅仅沿用过去的治理办法已难以应对新形势下人工智能发展的迅猛势头,如何规避新一代人工智能带来的新风险,需要构建适应新一代人工智能发展的治理框架,真正将问题发现与应对措施落到治理实践中,这也正是敏捷式治理尝试回答的主要问题。

构建新一代人工智能治理模式——敏捷治理。 ChatGPT目前取得的成果为通用人工智能的未来发展注入了一剂强心剂,使人们的注意力转向人工智能大模型机制中可能产生的“涌现”现象。技术上,“涌现”基于高质量大数据、超强算力、智能算法的基础技术架构,通过词向量、句向量的表达将概念问题转化为数学问题,产生“超以象外,得其环中”的效果。结果上,大模型已经在某种程度上展现出强人工智能的部分能力,甚至在一些领域创造了人工智能替代人的现实可能性。生成式人工智能对治理模式提出了新挑战和新要求。

敏捷治理旨在构建稳健可行的人工智能伦理与治理框架。它强调监管的节奏和力度,以及治理手段的适应性,是一套兼具柔韧性、流动性、灵活性的模式方法,尝试突破传统的监管与被监管思维,构建互动的监管关系,形成协同共治的体系。针对新兴技术发展的特性,治理需要重新考虑法律假设、风险研判和利益平衡三个维度的问题。因此,践行敏捷治理必须在治理理念、治理主体、治理对象、治理工具多个维度形成耦合机制,才能实现真正的善治。

治理理念上,坚持创新导向、风险规制相结合的系统思路,妥善处理技术创新和规范治理之间的矛盾。以确保人工智能安全可靠为底线,鼓励企业大胆创新,善用生成式人工智能赋能经济发展。只谈治理不谈发展必定造成治理的空洞化。虽然人工智能作为颠覆性技术不可避免会带来风险,但必须防止技术被妖魔化,对新兴技术应当保持宽容度,容许其在可控的范围内发生问题,再纠正问题。从国际经验上看,美国强调科技创新和产业发展,欧盟重视价值导向的强监管,这说明,维持监管与发展的平衡并不容易。如果在技术发展初期设置过高门槛,势必阻碍创新,敏捷治理的核心理念就是要保持开放性和灵活度。

治理主体上,坚持多元参与、协同互动的基本导向,需要改变政府与企业在传统治理模式中的关系,政府与企业不再是监管与被监管的关系,而是以协同合作实现治理目标为导向的互动关系。政企之间搭建沟通渠道,政府需要准确掌握行业动态,企业需要积极参与相关政策动向。在这一过程中,学术界可以作为有效的沟通渠道和交流平台,推动政策界、学术界、产业界的良性互动,以确保人工智能的良善发展为共识,在政策互动讨论中形成解决方案。应建立多方参与的测评体系,搭建风险评估平台,通过普遍接受和认可的方式测评新一代人工智能,完善标准体系,建立容错机制,在协同互动中避免安全漏洞和风险。

在治理对象上,应践行上下结合、分层治理的基本准则,重点做好对数据、算法、平台的治理。数据方面,要兼顾数据利用和数据保护,保证效率性和规范化的协调,做好一体化和全局性的统筹。算法方面,应将算法嵌入社会体系中进行评估,以体系化的思维为算法向善提供解决方案。平台方面,建构诸利益相关方共同参与的协同体系,在平台监管中兼顾好创新和发展之间的关系。总体上要针对共性的数据和算法问题形成普遍的底线约束,对企业和平台的治理要在充分调查和分析的基础上形成规范。此外,应针对不同的应用场景采用个性化的治理方法和手段,避免规则泛化导致的治理手段与目标问题不匹配的情况。

治理工具上,践行灵活运用、刚柔并济的基本方法,形成方法有梯度、应对有缓急的多重手段。一是要审慎调研我国人工智能专项立法的必要性,在现有法律法规的基础上完善制度建设。二是要落实目前已经出台的相应规则和规范,在实践中考察办法、准则的可行性。三是在科技伦理的整体规划下研究人机对齐的实践路径,争取在伦理对齐方面有所突破。四是在国际上通过人工智能治理全球倡议展现我国负责任大国形象。治理工具既包括宏观层面的法律法规、伦理准则,也包括中观层面的行为准则,以及微观层面的技术标准、监管技术和企业自我规制,应根据应用场景的具体情况采用适当的治理工具。

结语

当今人类社会是一个高度技术化的社会,回答如何治理人工智能的问题,就是在回答如何处理好人类与技术关系的问题。人工智能迎来了以大模型为主导的新世代,其颠覆性力量正在改变人类的生产生活方式和思维方式。面对又一轮新兴技术治理,需要摆脱传统的监管与被监管惯性思维。应倡导通过政策界、产业界、学术界的沟通与联动,在保障创新发展的同时,各方共同参与讨论应对风险的治理手段。在这样的前提之下形成广泛共识的、切实可行的、灵活调整的治理策略,才能使敏捷治理成为适应时代情境的、摆脱克科林格里奇困境的、能够有效应对大模型不断涌现风险挑战的新兴技术治理新模式、新方法。敏捷治理应致力于谱写和谐的人工智能治理之音。

文章来源:《学术前沿》杂志2024年第14期(注释从略)

原文责编:桂 琰

原文美编:周群英

新媒体责编:梁丽琛

声明:《学术前沿》杂志原创文章,任何单位或个人转载请回复本公众号获得授权,转载时请务必标明来源及作者。

相关问答

风险 传递机制是什么?

风险传递,是风险点扩散及扩大化的一种机制形式。其不仅会在行业内以“多米诺骨牌效应”制造系统性风险,还会以“蝴蝶效应”的方式引起关联领域的风险。风险传...

公司经营如何规避 风险 ?

公司要怎样规避风险,就必须要明白,何为风险?风险,就是公司在未来运营中的某一时间段所遭受的损失。风险的种类,又分内部风险和外部风险。公司内部风险,...第...

如何构建企业安全管理双重预防机制?

如何构建双重预防机制,国务院安委办再部署!2016-10-12中国安全生产报构建安全风险分级管控和隐患排查治理双重预防机制,是遏制重特大事故的重要举措。今年4月...

谁能详细介绍一下芯片的设计, 制造 和封测技术?

芯片的设计,制造,封测每一个环节都有非常复杂的流程。尽量以图片和通俗概念介绍。首先,设计要有芯片要实现的规格目标,确定好设计目标后就用软件语言(比如V...

中国为什么就不能 制造 自己的高端芯片?

问的有点极端,好像中国的精英阶层从没这种想法一样。如果要自主制造高端芯片,就要同时解决芯片设计、高端光刻机设备、5nm级及以下的晶园制造工艺等等一系列问...

防范金融系统性 风险 主要指什么?

感谢悟空问答的邀请!防范金融系统性风险主要是两点,第一是泡沫,第二是杠杆!2008年的股市是因为泡沫而结束的了,而2015年的股市是因为杠杆而结束的!所以面...起...

银行经营需要如何 控制风险 ?

商业银行风险管理流程:风险管理部门承担了风险识别、风险计算、风险监测的重要职责,而各级风险管理委员会承担风险控制/管理决策的最终责任。1.风险识别适时...

企业如何规避辞退试用期员工的 风险 ?

用人单位在决定与劳动者解除劳动合同时,往往都会有些顾虑,担心因不当解除而给自身带来法律风险,比如劳动者申请仲裁、被判令支付解除劳动合同的经济补偿金等。...

如何在试用期内规避用人 风险 ?

试用期到底约定多久合适?举例:3年合同,约定6个月试用期;或者1年合同,约定2个月试用期。试用期工资标准约定多少合适?试用期的工资标准【两个最低标准】...这...

为什么制作皮蛋有 风险 ?

容易变质,需要合适的温度容易变质,需要合适的温度

猜你喜欢