人工智能治理的三个基本问题-上海市电子商务行业协会 贵阳市电子商务行业商会 
主页 > 行业动态 > 热点聚焦 >

热点聚焦

人工智能治理的三个基本问题

2017年10月23日

 

人工智能治理的三个基本问题

(中国电子商务研究中心讯)[摘要]人工智能的兴起不仅是技术或产业领域的重大发展,更是经济、社会、政治各领域的基础性和综合性变革,由此产生的治理挑战要求公共政策框架的重构与创新,而这又体现为三个基本问题。首先在技术层面,人工智能的核心是算法与数据,其内在逻辑是基于机器学习形成自主决策。其次,传统科层治理结构、方法以及范围不能应对新的变化,从而构成了人工智能时代的治理挑战。各国现有政策所遵循的“无需批准式监管”或“审慎监管”逻辑固然有其合理性,但却局限于“创新”与“安全”的二维选择而失于片面。最后,本文提出综合性公共政策框架,力图为人工智能时代的崛起建立制度基石。

2017年7月,国务院印发《新一代人工智能发展规划》,不仅对人工智能的发展做出了战略性部署,还确立了“三步走”的政策目标,力争到2030年将我国建设成为世界主要的人工智能创新中心。[1]值得注意的是,此次规划不仅仅只是技术或产业发展规划,还同时包括了社会建设、制度重构、全球治理等方方面面的内容。之所以如此,是由于人工智能技术本身具有通用性和基础性。换句话说,为助推人工智能时代的崛起,我们面对的任务不是实现某一个专业领域或产业领域内的颠覆性技术突破,而是大力推动源于技术发展而引发的综合性变革。

也正因为如此,人工智能发展进程中所面临的挑战才不仅仅局限于技术或产业领域,而更多体现在经济、社会、政治领域的公共政策选择上。首先,普遍建立在科层制基础上的公共事务治理结构,是否能够适应技术发展和应用过程中所大规模激发的不确定性和不可预知性?再者,长久以来围绕人类行为的规制制度,是否同样能够适应以数据、算法为主体的应用环境?最后,如何构建新的治理体系和治理工具来应对伴随人工智能发展而兴起的新的经济、社会、政治问题?

应对上述挑战并不完全取决于技术发展或商业创新本身,而更多依赖于我们的公共政策选择。本文试图在分析人工智能发展逻辑及其所引发的风险挑战的基础上,对人工智能时代的公共政策选择做出分析,并讨论未来改革的可能路径,这也就构成了人工智能治理的三个基本问题。具体而言,人工智能本身成为治理对象,其发展与应用构成了治理挑战,而在此基础上如何做出公共政策选择便是未来治理变革的方向。

全文共分为四个部分:第一部分将探讨人工智能的概念及特征,并进而对其发展逻辑进行阐述。作为一项颠覆性技术创新,其本身的技术门槛对决策者而言构成了挑战,梳理并捋清人工智能的本质内涵因而成为制定相关公共政策的前提;第二部分将着重分析人工智能时代崛起所带来的治理挑战,主要包括三个方面,即传统科层治理结构应对人工智能新的生产模式的滞后性、建基于行为因果关系之上的传统治理逻辑应对人工智能新主体的不适用性,以及人工智能发展所引发的新议题的治理空白;面对上述挑战,各国都出台了相关政策,本文第三部分对此进行了综述性对比分析,并指出了其进步意义所在。需要指出的是,尽管各国的政策目标都试图追求人工智能发展与监管的二维平衡,但由于缺乏对人工智能内涵及其发展逻辑的完整认识,当前的公共政策选择有失综合性;本文第四部分将提出新的治理思路以及公共政策选择的其他可能路径,以推动围绕人工智能治理的相关公共政策议题的深入讨论。

一、人工智能的概念及技术发展逻辑:算法与数据

伴随着人工智能技术的快速发展,尤其是其近年来在棋类对弈、自动驾驶、人脸识别等领域的广泛应用,围绕人工智能所可能引发的社会变革产生了激烈争论。在一方面,以霍金[2]、马斯克[3]、比尔-盖茨[4]、赫拉利[5]为代表的诸多人士呼吁加强监管,警惕“人工智能成为人类文明史的终结”;在另一方面,包括奥巴马[6]在内的政治家、学者又认为应该放松监管,充分释放人工智能的技术潜力以造福社会。未来发展的不确定性固然是引发当前争论的重要原因之一,但围绕“人工智能”概念内涵理解的不同,以及对其发展逻辑认识的不清晰,可能也同样严重地加剧了人们的分歧。正因为此,廓清人工智能的概念内涵和发展逻辑不仅是回应争论的需要,也是进一步提出公共政策建议的前提。

就相关研究领域而言,人们对于“人工智能”这一概念的定义并未形成普遍共识。计算机领域的先驱阿兰-图灵曾在《计算机器与智能》一文中提出,重要的不是机器模仿人类思维过程的能力,而是机器重复人类思维外在表现行为的能力。[7]正是由此理解出发,着名的“图灵测试”方案被提出。但如同斯坦福大学计算机系教授约翰·麦卡锡所指出的,“图灵测试”仅仅只是“人工智能”概念的一部分,不模仿人类但同时也能完成相关行为的机器同样应被视为“智能”的。[8]事实上,约翰·麦卡锡正是现代人工智能概念的提出者。在他看来,“智能”关乎完成某种目标的行为“机制”,而机器既可以通过模仿人来实现行为机制,也可以自由地使用任何办法来创造行为机制。[9]由此,我们便得到了人工智能领域另一个非常重要的概念——“机器学习”。

人工智能研究的目标是使机器达到人类级别的智能能力,而其中最重要的便是学习能力。[10]因此,尽管“机器学习”是“人工智能”的子域,但很多时候我们都将这两个概念等同起来。[11]就实现过程而言,机器学习是指利用某些算法指导计算机利用已知数据得出适当模型,并利用此模型对新的情境给出判断,从而完成行为机制的过程。此处需要强调一下机器学习算法与传统算法的差异。算法本质上就是一系列指令,告诉计算机该做什么。对于传统算法而言,其往往事无巨细地规定好了机器在既定条件下的既定动作;机器学习算法却是通过对已有数据的“学习”,使机器能够在与历史数据不同的新情境下做出判断。以机器人行走的实现为例,传统算法下,程序员要仔细规定好机器人在既定环境下每一个动作的实现流程;而机器学习算法下,程序员要做的则是使计算机分析并模拟人类的行走动作,以使其即使在完全陌生的环境中也能实现行走。

由此,我们可以对“人工智能”设定一个“工作定义”以方便进一步的讨论:人工智能是建立在现代算法基础上,以历史数据为支撑,而形成的具有感知、推理、学习、决策等思维活动并能够按照一定目标完成相应行为的计算系统。这一概念尽管可能仍不完善,但它突出了人工智能技术发展和应用的两大基石——算法与数据,有助于讨论人工智能的治理问题。

首先,算法即是规则,它不仅确立了机器所试图实现的目标,同时也指出了实现目标的路径与方法。就人工智能当前的技术发展史而言,算法主要可被划分为五个类别:符号学派、联接学派、进化学派、类推学派和贝叶斯学派。[12]每个学派都遵循不同的逻辑、以不同的理念实现了人工智能(也即“机器学习”)的过程。举例而言,“符号学派”将所有的信息处理简化为对符号的操纵,由此学习过程被简化(抽象)为基于数据和假设的规则归纳过程。在数据(即历史事实)和已有知识(即预先设定的条件)的基础上,符号学派通过“提出假设-数据验证-进一步提出新假设-归纳新规则”的过程来训练机器的学习能力,并由此实现在新环境下的决策判断。

从对“符号学派”的描述中可以发现,机器学习模型成功的关键不仅是算法,还有数据。数据的缺失和预设条件的不合理将直接影响机器学习的输出(就符号学派而言,即决策规则的归纳)。最明显体现这一问题的例子便是罗素的“归纳主义者火鸡”问题:火鸡在观察10天(数据集不完整)之后得出结论(代表预设条件不合理,超过10个确认数据即接受规则),主人会在每天早上9点给它喂食;但接下来是平安夜的早餐,主人没有喂它而是宰了它。

所有算法类型尽管理念不同,但模型成功的关键都聚焦于“算法”和“数据”。事实上,如果跳出具体学派的思维束缚,每种机器学习算法都可被概括为“表示方法、评估、优化”这三个部分。[13]尽管机器可以不断的自我优化以提升学习能力,且原则上可以学习任何东西,但评估的方法和原则(算法)以及用以评估的数据(数据)都是人为决定的——而这也正是人工智能治理的关键所在。算法与数据不仅是人工智能发展逻辑的基石,其同样是治理的对象和关键。

总而言之,围绕“人工智能是否会取代人类”的争论事实上并无太大意义,更重要的反而是在廓清人工智能的内涵并理解其发展逻辑之后,回答“治理什么”和“如何治理”的问题。就此而言,明确治理对象为算法和数据无疑是重要的一步。但接下来的重要问题仍然在于,人工智能时代的崛起所带来的治理挑战究竟是什么?当前的制度设计是否能够对其做出有效应对?如果答案是否定的,我们又该如何重构治理体系以迎接人工智能时代的崛起?本文余下部分将对此做进一步的阐述。

二、人工智能时代崛起的治理挑战

不同于其他颠覆性技术,人工智能的发展并不局限于某一特定产业,而是能够支撑所有产业变革的通用型技术。也正因为此,其具有广泛的社会溢出效应,在政治、经济、社会等各个领域都会带来深刻变革,并将同时引发治理方面的挑战。具体而言,挑战主要体现在以下三个方面。

首先,治理结构的僵化性,即传统的科层制治理结构可能难以应对人工智能快速发展而形成的开放性和不确定性。之所以需要对人工智能加以监管,原因在于其可能成为公共危险的源头,例如当自动驾驶技术普及之后,一旦出现问题,便可能导致大规模的连续性伤害。但不同于飞机、大型水坝、原子核科技等二十世纪的公共危险源,人工智能的发展具有极强的开放性,任何一个程序员或公司都可以毫无门槛的进行人工智能程序的开发与应用。这一方面是由于互联网时代的到来,使得基于代码的生产门槛被大大降低[14];另一方面,这也是人工智能本身发展规律的需要。正如前文所提到,唯有大规模的数据输入才可能得到较好的机器学习结果,因此将人工智能的平台(也即算法)以开源形式公开出来,以使更多的人在不同场景之下加以利用并由此吸收更多、更完备的数据以完善算法本身,就成为了大多数人工智能公司的必然选择。与此同时,人工智能生产模式的开放性也必然带来发展的不确定性,在缺乏有效约束或引导的情况下,人工智能的发展很可能走向歧途。面对这一新形势,传统的、基于科层制的治理结构显然难以做出有效应对。一方面,政府试图全范围覆盖的事前监管已经成为不可能,开放的人工智能生产网络使得监管机构几乎找不到监管对象;另一方面,由上至下的权威结构既不能传递给生产者,信息不对称问题的加剧还可能导致监管行为走向反面。调整治理结构与治理逻辑,并形成适应具有开放性、不确定性特征的人工智能生产模式,是当前面临的治理挑战之一。

再者,治理方法的滞后性,即长久以来建立在人类行为因果关系基础上的法律规制体系,可能难以适用于以算法、数据为主体的应用环境。人工智能的价值并不在于模仿人类行为,而是其具备自主的学习和决策能力;正因为如此,人工智能技术才不能简单地理解为其创造者(即人)意志的表达。程序员给出的只是学习规则,但真正做出决策的是基于大规模数据训练后的算法本身,而这一结果与程序员的意志并无直接因果关联。事实上也正由于这个特点,AlphaGo才可能连续击败围棋冠军,而其设计者却并非围棋顶尖大师。也正是在这个意义上,我们才回到了福柯所言的“技术的主体性”概念。在他看来,“技术并不仅仅是工具,或者不仅仅是达到目的的手段;相反,其是政治行动者,手段与目的密不可分”。[15]就此而言,长久以来通过探究行为与后果之因果关系来规范人的行为的法律规制体系,便可能遭遇窘境:如果将人工智能所造成的侵权行为归咎于其设计者,无疑不具有说服力;但如果要归咎于人工智能本身,我们又该如何问责一个机器呢?由此,如何应对以算法、数据为核心的技术主体所带来的公共责任分配问题,是当前面临的第二个治理挑战。

最后,治理范围的狭隘性,即对于受人工智能发展冲击而引发的新的社会议题,需要构建新的治理体系和发展新的治理工具。人工智能发展所引发的治理挑战不仅仅体现在现有体系的不适应上,同时还有新议题所面临的治理空白问题。具体而言,这又主要包括以下议题:算法是否能够享有言论自由的宪法保护,数据的权属关系究竟如何界定,如何缓解人工智能所可能加剧的不平等现象,以及如何平衡人工智能的发展与失业问题。在人工智能时代之前,上述问题并不存在,或者说并不突出;但伴随着人工智能的快速发展和应用普及,它们的重要性便日渐显着。以最为人所关注的失业问题为例,就技术可能性来说,人工智能和机器人的广泛应用代替人工劳动,已是一个不可否定的事实了。无论是新闻记者,还是股市分析员,甚至是法律工作者,其都有可能为机器所取代。在一个“充分自动化(Full Automation)”的世界中,如何重新认识劳动与福利保障的关系、重构劳动和福利保障制度,便成为最迫切需要解决的治理挑战之一。[16]

上述三方面共同构成了人工智能时代崛起所带来的治理挑战。面对这些挑战,各国也做出了相应的公共政策选择。本文第三部分将对各国人工智能的治理政策进行对比性分析。在此基础上,第四部分将提出本文的政策建议。

三、各国人工智能治理政策及监管路径综述

人工智能时代的崛起作为一种普遍现象,其所引发的治理挑战是各国面临的共同问题,各国也陆续出台了相关公共政策以试图推动并规范人工智能的快速发展。

美国于2016年同时颁布了《国家人工智能研究与发展战略规划》和《为人工智能的未来做好准备》两个国家级政策框架,前者侧重从技术角度指出美国人工智能战略的目的、愿景和重点方向,而后者则更多从治理角度探讨政府在促进创新、保障公共安全方面所应扮演的角色和作用。就具体的监管政策而言,《为人工智能的未来做好准备》提出了一般性的应对方法,强调基于风险评估和成本-收益考量的原则以决定是否对人工智能技术的研发与应用施以监管负担。[17]日本同样于2016年出台了《第五期(2016~2020年度)科学技术基本计划》,提出了“超智能社会5.0”的概念,强调通过推动数据标准化、建设社会服务平台、协调发展多领域智能系统等各方面工作促进人工智能的发展和应用。[18]

尽管美国和日本的政策着力点不同,但其共有的特点是对人工智能的发展及其所引发的挑战持普遍的包容与开放态度。就当前的政策框架而言,美日两国的政策目标更倾斜于推动技术创新、保持其国家竞争力的优势地位;当涉及对人工智能所可能引发的公共问题施以监管时,其政策选择也更倾向于遵循“无需批准式(permissionless)”的监管逻辑,即强调除非有充分案例证明其危害性,新技术和新商业模式默认为都是被允许的。[19]至于人工智能的发展对个人数据隐私、社会公共安全的潜在威胁,尽管两国的政策框架都有所涉及,却并非其政策重心——相比之下,英国法国则采取了不同的政策路径。

英国政府2016年发布了《人工智能:未来决策制定的机遇与影响》,对人工智能的变革性影响以及如何利用人工智能做出了阐述与规划,尤其关注到了人工智能发展所带来的法律和伦理风险。在该报告中,英国政府强调了机器学习与个人数据相结合而对个人自由及隐私等基本权利所带来的影响,明确了对使用人工智能所制定出的决策采用问责的概念和机制,并同时在算法透明度、算法一致性、风险分配等具体政策方面做出了规定。[20]与英国类似,法国在2017年发布的《人工智能战略》中延续了其在2006年通过的《信息社会法案》的立法精神,同样强调加强对新技术的“共同调控”,以在享有技术发展所带来的福利改进的同时,充分保护个人权利和公共利益。[21]与美日相比,英法的公共政策更偏向于“审慎监管(precautionary)”的政策逻辑,即强调新技术或新的商业模式只有在开发者证明其无害的前提下才被允许使用。[22]

在本文看来,无论是“无需批准式监管”还是“审慎监管”,在应对人工智能时代崛起所带来的治理挑战方面都有其可取之处:前者侧重于推动创新,而后者则因重视安全而更显稳健。但需要指出的是,这两种监管路径的不足却也十分明显。正如前文第二部分所指出,一方面,快速迭代的技术发展与商业模式创新必将引发新的社会议题,无论是算法是否受到言论自由的权利保护还是普遍失业对社会形成的挑战,它们都在客观上要求公共政策做出应对,而非片面的“无需批准式监管”能够处理。更重要的是,“无需批准式监管”的潜在假设是事后监管的有效性;然而,在事实上,正如2010年5月6日美国道琼斯工业指数“瞬间崩盘”事件所揭示的,即使单个电子交易程序合规运行,当各个系统行为聚合在一起时反而却造成了更大的危机。[23]在此种情形下,依赖于合规性判断的“事后监管”基本上难以有效实施。另一方面,人工智能本身的自主性和主体性使得建立在人类行为因果关系基础上的“审慎监管”逻辑存在天然缺陷:既然人类无法预知人工智能系统可能的行为或决策,开发者又如何证明人工智能系统的无害性?

正如本文所反复强调的,人工智能与其他革命性技术的不同之处,正是在于其所带来的社会冲击的综合性和基础性。人工智能并非单个领域、单个产业的技术突破,而是对于社会运行状态的根本性变革;人工智能时代的崛起也并非一夜之功,而是建立在计算机革命、互联网革命直至数字革命基础上的“奇点”变革。因此,面对人工智能时代崛起所带来的治理挑战,我们同样应该制定综合性的公共政策框架,而非仅仅沿袭传统治理逻辑,例如只是针对具体议题在“创新”与“安全”这个二元维度下进行艰难选择。本文在第四部分从承认技术的主体性、重构社会治理制度、推进人工智能全球治理这三方面提出了政策建议,并希望以此推动更深入地围绕人工智能时代公共政策选择的研究与讨论。

四、人工智能时代的公共政策选择

《新一代人工智能发展规划》明确提出了到2030年我国人工智能发展的“三步走”目标,而在每一个阶段,人工智能法律法规、伦理规范和政策体系的逐步建立与完善都是必不可少的重要内容。面对人工智能时代崛起的治理挑战,究竟应该如何重构治理体系、创新治理机制、发展治理工具,是摆在决策者面前的重要难题。本文基于对人工智能基本概念和发展逻辑的梳理分析,结合各国已有政策的对比分析,提出以下三方面的改革思路,以为人工智能时代的公共选择提供参考。

第一,人工智能发展的基石是算法与数据,建立并完善围绕算法和数据的治理体系与治理机制,是人工智能时代公共政策选择的首要命题,也是应对治理挑战、赋予算法和数据以主体性的必然要求。(1)就算法治理而言,涉及的核心议题是算法的制定权及相应的监督程序问题。算法作为人工智能时代的主要规则,究竟谁有权并通过何种程序来加以制定,谁来对其进行监督且又如何监督?长久以来公众针对社交媒体脸书(Facebook)的质疑正体现了这一问题的重要性:公众如何相信脸书向用户自动推荐的新闻内容不会掺杂特殊利益的取向?[24]当越来越多的人依赖定制化的新闻推送时,人工智能甚至会影响到总统选举。也正因为此,包括透明要求、开源要求在内的诸多治理原则,应当被纳入到算法治理相关议题的考虑之中。(2)就数据治理而言,伴随着人工智能越来越多地依赖于大规模数据的收集与利用,个人隐私的保护、数据价值的分配、数据安全等相关议题也必将成为公共政策的焦点。如何平衡不同价值需求、规范数据的分享与应用,也同样成为人工智能时代公共政策选择的另一重要抓手。

第二,创新社会治理制度,进一步完善社会保障体系,在最大程度上缓解人工智能发展所可能带来的不确定性冲击。与历史上的技术革命类似,人工智能的发展同样会导致利益的分化与重构,而如何保证技术革命成本的承受者得到最大限度的弥补并使所有人都享有技术发展的“获得感”,不仅是社会发展公平、正义的必然要求,也是促进技术革命更快完成的催化剂。就此而言,在人工智能相关公共政策的考量中,我们不仅应该关注产业和经济政策,同时也应该关注社会政策,因为只有后者的完善才能够控制工人或企业家所承担的风险,并帮助他们判断是否支持或抵制变革的发生。就具体的政策设计来说,为缓解人工智能所可能带来的失业潮,基本收入制度的普遍建立可能应该被提上讨论议程了。“基本收入”是指政治共同体(如国家)向所有成员不加任何限制条件地支付一定数额的收入,以满足其基本生活的需求。尽管存在“养懒汉”的质疑,但有研究者已指出,自18世纪就开始构想的基本收入制度很有可能反过来促进就业。[25]芬兰政府已经于2017年初开始了相关实验,美国的一些州、瑞士也做出了一定探索。在人工智能时代尚未完全展现其“狰容”之前,创新社会治理机制、完善社会保障体系,可能是平衡技术创新与社会风险的最佳路径。

第三,构建人工智能全球治理机制,以多种形式促进人工智能重大国际共性问题的解决,共同应对开放性人工智能生产模式的全球性挑战。人工智能的发展具有开放性和不确定性的特征,生产门槛的降低使得人工智能技术研发的跨国流动性很强,相关标准的制定、开放平台的搭建、共享合作框架的形成,无不要求构建相应的全球治理机制。另一方面,跨境数据流动在广度和深度上的快速发展成为了人工智能技术进步的直接推动力,但各国数据规制制度的巨大差异在制约跨境数据流动进一步发展的同时,也将影响人工智能时代的全面到来。[26]故此,创新全球治理机制,在承认各国制度差异的前提下寻找合作共享的可能性,便成为人工智能时代公共政策选择的重要考量之一。就具体的机制设计而言,可以在人工智能全球治理机制的构建中引入多利益相关模式;另一方面,为防止巨头垄断的形成,充分发挥主权国家作用的多边主义模式同样不可忽视。作为影响深远的基础性技术变革,互联网全球治理机制的经验和教训值得人工智能发展所借鉴。

上述三方面从整体上对人工智能时代的公共政策框架做出了阐述。与传统政策局限于“创新”与“安全”之间做出二维选择不同,本文以更综合的视角提出了未来公共政策选择的可能路径。就其内在联系来讲,建立并完善围绕算法和数据的治理体系是起点,其将重构人工智能时代的规则与制度;创新社会治理机制并完善社会保障体系是底线,其将缓解人工智能所带来的影响与波动;构建全球治理机制则成为了制度性的基础设施,推动各国在此之上共同走向人工智能时代的“人类命运共同体”。

五、结语

在经历了60余年的发展之后,人工智能终于在互联网、大数据、机器学习等诸多技术取得突破的基础上实现了腾飞。在未来的人类生活中,人工智能也必将扮演越来越重要的角色。对于这样的图景,我们自不必惊慌,但却也不可掉以轻心。对于人工智能的治理,找到正确的方向并采取合理的措施,正是当下所应该重视的政策议题。而本文的主旨也正在于此:打破长久以来人们对于人工智能的“笼统”式担忧,指出人工智能技术发展的技术逻辑及其所引发的治理挑战,并在此基础上提出相应的政策选择。人工智能治理的这三个基本问题,是重构治理体系、创新治理机制、发展治理工具所必须思考的前提。伴随着我国国家层面战略规划的出台,我国人工智能的发展也必将跃上新台阶。在此背景下,深入探讨人工智能治理的相关公共政策议题,对于助推一个人工智能时代的崛起而言,既有其必要性,也有其迫切性。