郑玉双:人工智能与人的尊严的法理建构

郑玉双:人工智能与人的尊严的法理建构
2024年11月08日 23:12 法大科技成果转化基地

以下内容转载自“浙江学刊”公众号

提要:人工智能科技对法律价值世界的冲击和重塑呈现为诸多面向,其中人的尊严是对人工智能进行价值评估的关键要素。然而,由于尊严价值的抽象模糊以及人工智能科技所引发的价值分歧和伦理危机,人工智能和人的尊严在法理上存在三种理论解释模式。基于人工智能科技的计算式革命及其社会意义,在智能社会对人的尊严进行阐释和定位的关键维度是人性和人格的可计算性及其对社会价值网络的计算式改造,因此应该支持一种新型的建构性尊严观。在计算与价值互嵌的智能时代,捍卫人的尊严是构筑和维续智能社会的浓厚价值共识,这一共识通过维护数字伦理、培育数字人格、捍卫数字人权而得以实现。

关键词:人工智能;人的尊严;数字人格;数字人权;数字伦理

伴随着数字社会的来临,人工智能科技的发展不断取得突破,对社会结构和实践形态的影响和冲击越来越大。无论是在中国还是在世界其他地方,人们在享受人工智能技术带来的巨大便利和益处的同时,也对其引发的伦理和社会挑战表示深深的担忧。从政策和法律上应对这些挑战成为当前一项迫切的任务。然而,人工智能技术的应用领域不断拓展,人们对人工智能技术的认识和经验不断被技术突破所更新,作为人造物之智能巅峰的人工智能成为“熟悉的陌生人”,既无法引发普遍的伦理共识,也不断产生政策制定上的困境。除了在产业发展上的一系列现实挑战之外,人工智能技术在应用中所产生的黑箱问题、道德归责难题、数字歧视和侵权风险等伦理问题也不断带来困扰。

对人工智能的规制和善治需要化解上述伦理危机,这项任务需要在法律框架之中进行。然而,当人工智能技术所引发的伦理风险辐射到法律领域中时,其伦理困境变得更为复杂。法律内嵌着一个丰富且复杂的价值世界,与伦理实践保持着有机的沟通和互动。人工智能科技打破了这种平衡,对人的尊严、平等、隐私和公平等价值的数字注入和改造搅动了伦理世界的规范状态,也冲击了法律回应和保障这些价值的动态平衡模式。尽管学界针对这些价值在剧烈的技术冲击下如何清晰地呈现做出了大量的回应,然而,目前仍然缺乏一个有效的理论框架来充分展示法律如何化解人工智能科技对伦理世界的冲击这一基础难题。人的尊严这一价值所面对的困境尤为突出。人的尊严在法律实践中的基础价值属性和尊严内涵的空洞性产生了激烈冲突,尊严与平等、自由等价值的关联也存在多种理论解释方案。人工智能科技对价值世界的全方位渗入既加剧了尊严内涵的模糊性,也使得法律对尊严的保障更加棘手。

本文尝试对这一价值困境进行理论呼应。尊严理论有着悠久的思想传统,但在人与社会的智能转型中需要进行重构。人的尊严既是道德价值,也是宪法价值。在智能时代,尊严应当成为对新兴科技应用进行全方位评估的内嵌性价值,但既有的尊严理论和价值分析未能充分展示人工智能科技对尊严的冲击方式,在回应科技的价值挑战时也乏力。新的出路应当落脚在人工智能对社会结构的计算性冲击和重塑之上。人工智能科技的发展拓展了社会自我建构和创造的边界,导致各种价值的存在形态和相互关联不断被层出不穷的技术应用所扰动。尊严是一种奠基性价值,也是沟通科技背后的价值世界和科技规制的正义观念和法理方案的枢纽。在尊严价值与人工智能技术所带来的计算式革命之间进行理论建构,是捍卫智能社会之价值根基的关键议题。

一、人工智能的伦理危机与价值挑

(一)人工智能的伦理危机

人类社会的发展伴随着科技的融入、冲撞和贡献,但只有在生命科技和人工智能科技出现之后,人类的伦理实践才受到了实质意义上的冲击。汽车、有线电视和抗生素的发明者无需为电视沉迷或抗生素滥用而忧虑,但基因编辑的发明者却需要不断忧虑基因编辑技术应用于人体之后的未知风险,人工智能科技的研发和应用者始终处于伦理风险的风口浪尖。就人工智能科技来说,其本身是一种高级别的计算和概率分析方式,借着算力的东风,实现了对人类智能的极大突破。尽管人工智能实现了飞速的升级迭代,到目前已经发展出ChatGPT这种巅峰之作,但其智能本质并未发生实质变化。在具备人类心智的强人工智能出现之前,这项技术之所以引发担忧,主要是因为人工智能在三个方面引发了伦理挑战和价值危机。

首先,人工智能引发了存在论意义上的人性挑战。人工智能技术不断拓展人机交互的空间,对人的存在意义的冲击不断升级,使得人机之间的价值边界越发模糊。这种挑战存在于浅层和深层两个层面。在浅层意义上,人工智能构成了人的智能的替代选择,个人和社会决策将越来越多地依赖智能载体。我们可以较为乐观地对待浅层挑战,但一旦这些人机协作模式发生转型,其价值厚度和伦理分量就会增加。比如人形机器人的出现使得算法失灵问题不再是一个传统事故责任问题,同时也引申出人形机器人是否能够承担责任的主体性问题。再比如,机器决策可以避免人的主观偏见和知识壁垒所产生的决策困境,但将机器决策应用于自动化行政,则马上会面临公共性证成问题。在深层意义上,人工智能使得人的主体性及法律主体地位受到冲击。人的主体性体现在人既是理性的决策者,同时又是责任的回应者和承担者。在机器决策不断超越人类决策且产生情感和感知意义时,人在主体意义上的独特性便会受到质疑。这一挑战在哲学上体现为机器人的主体地位是否成立以及机器伦理是否存在,在现实应用中则典型地体现在自动驾驶的归责难题上。

其次,人工智能的应用总是与伦理风险相伴而生。人工智能技术的原理是中性的,但只要将这项技术应用于人类社会实践之中,其伦理风险马上就会凸显,比如借助于热症检测算法的人脸识别技术会带来隐私保障难题,基于数据分析的智能评价系统总是直接或间接地包含歧视。人工智能技术将社会实践和决策带到一个前所未有的计算网络之中,同样也让各种伦理问题井喷式涌现。人工智能的功能性伦理风险产生的深层原因在于社会实践过程的数字化转型,后者将个体的人格处境聚合成为海量的存储数据。数据不仅会“说话”,也会“再生”。例如,ChatGPT正是借助于大模型引擎对海量数据的学习,具备了创造性的知识生产与信息互动能力,但这种现象级的智能应用也伴随着前所未有的伦理忧虑,包括虚假信息和隐性歧视等。ChatGPT对法律实践的影响也开始凸显,一方面带来很多增长点,比如大幅提升法律服务的自动化水平,但另一方面也引发潜在的偏见、透明度和问责制问题。

最后,人工智能技术的发展提出了全新的公共治理挑战,引发了正义实践的难题。无论人工智能所引发的治理困境被冠以数字正义、计算正义还是数据正义问题,其核心都表现为人工智能技术发展未能符合正义的要求。正义的价值内核存在不同的理论标准,但其要核在于对个体的公正对待和不偏不倚。当前的人工智能技术实践并没有达到这个目标。大型数字平台掌握用户的海量数据,但没有针对数据的产权划分给出合理的方案。人工智能算法的应用领域不断拓展,其歧视效应也相应加剧,比如出现了越来越多的人工智能招聘歧视。随着数字平台不断承担公共职能,数字权力具备了公共权力的部分属性,成为一种“通过数字技术强制要求集体组织系统中各成员或单位履行有约束力的义务并导致数字生态系统转化为法治秩序的一种普遍化技术能力”。然而,因其运行的黑箱逻辑无法像公共权力那样充分地答责,因此构成了数字治理中的伦理难题。

(二)尊严在人工智能伦理中的意义

人工智能技术所引发的伦理危机和价值挑战,在本质上是人的尊严危机。传统技术社会向智能社会转化的核心是将计算维度带到社会运转和决策结构之中。社会交往与生产方式依然是人的能动性和创造力的参与过程,但这个过程因为人工智能的参与而发生实质转型。人的社会交往不再是传统的信息互动和流通,而是以数据为载体的数字化人格互动。人的实践和交往活动转化为不断叠加和自我创造的数据和数字化印记,从而将个体的完整人格化存在分裂为个人自我理解与社会数字化构建两种分离的形态。人的尊严包含个体价值的完整性和自我认同的同一性两个要素,人工智能显然将人的尊严置于一种受到威胁的境地。反过来,人的尊严也是理解和化解上述伦理危机的出路。

首先,人工智能所造成的各种伦理挑战,都是围绕人的尊严这一核心价值展开的。这并不是说人的尊严是一个无所不包的筐子,任何伦理问题都必然与之相关。而是说,尊严是一个统摄性伦理和价值概念,人工智能撼动了尊严的价值根基,从而导致一系列挑战和风险的出现。人工智能在存在论意义上的伦理挑战体现为机器是否具备独立心灵和归责能力,其更深层次的难题是机器是否可以像人那样获得一种受到独特对待的价值状态和人格地位,即机器是否也可以是一种尊严性的存在。尽管当前已有大量研究针对机器伦理进行建构,比如让机器人成为康德式的道义论主体或者美德主体,但如果机器不具备尊严主体地位,那么机器的伦理责任就会悬空,让机器承担相应的道德和法律责任(比如自动驾驶的碰撞责任)就是空想的设计。

其次,人工智能带来了复杂的价值冲突问题,穿插于人工智能科技之价值网络的一条核心线索是人的尊严。数据的无穷获取和分析导致个人隐私权的边界越来越模糊,平台对个人信息的广泛获取、识别和使用引发个体的网络被遗忘权证成难题。在数据产业如火如荼的当下,数据产权的确立和分配成为一个棘手的难题。这些问题一方面与不同价值之间的冲突有关,比如被遗忘权对个人信息自决的保护与信息自由流通之间的冲突,另一方面则与科技对价值内涵的改变有关。例如,在传统的社会交往模式下,个人信息不足以成为一种有分量的权益,而在信息社会,由于信息所产生的商业价值,个人信息权益承载着厚重的人格属性,具有共同善维度。这两个方面都与人的尊严相关。尽管关于尊严如何为其他价值提供支持在理论上存在争议,但尊严是人的存在及社会互动的基础价值,也是人机关系的基础价值。尊严既为其他价值的内涵确定提供依据,也是解决人工智能科技之伦理问题的基石。脱离了对尊严的讨论,人工智能伦理的建构和危机解决将是不完整的。

最后,尊严价值既支撑了伦理生活的基本原则,也是公共政治和法律生活的价值依据。人工智能技术改变了伦理评价和政治参与的方式,当然也要受到尊严价值的约束。然而,目前关于人工智能的公共讨论,尤其是关于其技术应用的正义问题,仍然缺乏尊严的维度。技术实践的正义关乎权利配置、资源分配、公平实践,尤其关乎对用户的公平对待和消除歧视。人工智能科技也使得代际正义问题变得更加突出。人工智能技术的快速发展和广泛应用会深刻影响后代人,人们选择建构的人机关系模式和资源分配模式将根深蒂固地决定后代人的生活模式。传统尊严概念在回应正义实践问题上包含着有争议但有力度的解释空间,而在面对新兴科技的挑战时,尊严的影响力没有得到充分重视,因此如何在智能实践中实现公平和代际正义的问题始终无法得到透彻的回应。

尊严的缺失部分与尊严价值的特殊性相关。既有理论关于尊严与其他伦理价值关系的讨论没有形成太多有效的共识。在公共法律生活中,尊严确立了社会实践的基本价值追求,但尊严在法律实践的价值网络中的统摄性作用受到了诸多限制。基于此,在关于人工智能规制的基本原则中,尊严总是若隐若现。无论是算法治理还是生成式人工智能的内容监管,都是以科技正义或数字正义为旨归的公共权力实践,但尊严对科技正义实践的价值意义受制于尊严理论的强度。有些立场主张尊严是人工智能科技发展的强约束和终极价值标准,有些立场则主张尊严是一条底线,对相关伦理原则的支持并无我们想象的那样强烈。同样,人工智能科技也受制于其他价值因素,比如科技创新和效益。

综上所述,人工智能发展之伦理约束中的尊严要素是松散且割裂的,不同价值之间的关系也模糊不清,这就导致我们在应对人工智能之伦理危机的进程中缺少一个全方位且体系性的支撑框架。对人工智能与人的尊严的关系进行讨论,应是摆脱这一困境的出路。

二、理解人工智能和人的尊严之关系的理论模式

尊严的概念可以追溯到几千年前的古希腊和古罗马思想家,比如西塞罗。经过基督教哲学家的改造,尊严从传统的地位意义的尊贵性转向了人的内在固有价值性。尊严概念的成熟要归结在康德身上。康德提出了一种被现代国际公约和宪法实践普遍采纳的观念,即尊严代表着人性和道德的无价性,尊严有着无法比拟和不可替代的价值属性。这种对尊严之基础价值属性的强调在20世纪为《世界人权宣言》和《公民权利及政治权利国际公约》等文件所吸收,也体现在一些国家关于尊严的宪法条文之中。

然而,在大多数国家的实践中,尊严价值的法律化伴随着争议,常处于困境。在理论上,尊严的价值分量比自由和权利要重得多,却不能像自由和权利那样得到全面和具体的保障。在实践中,尊严缺乏相应的保护机制。一个人的权利受到了侵犯,可以通过权利救济途径加以恢复。尊严如果受到侵犯,则难以找到一种具体有效的救济机制。这并不是说尊严的损害无法得到救济,而是尊严的价值处境面临着冗余性和可替代性。冗余性指的是在关于尊严的法律讨论中,总是需要借助其他价值,比如权利、自由或隐私等,对自由的侵犯导致了尊严受损,比如某个人受到非法拘禁,则他的人身自由受到侵犯,从而导致尊严价值受到破坏。在这个意义上,尊严需要借助其他价值才能被很好地理解,因此是冗余的。尊严的可替代性体现在尊严受损的情况可以被其他社会状态所替代,比如,无处不在的数据收集和分析使得个人隐私处于风险之中,人的尊严当然也面临着人工智能技术的威胁。但这种威胁能够被替换为个人信息保护失序、个人隐私泄露风险或信息茧房等具体现象。这些现象比尊严受损传递了更多可被社会理解和接受的价值具象,使得尊严具有可替代性。

这并不是说尊严是一个过时的概念,或者对日新月异的新兴社会形态无法作出解释。相反,尊严理论充满活力。有大量学者已经对尊严的价值内涵进行了充分探讨。基于尊严理论的不同面向和实践意义,存在着多种关于尊严内涵的划分标准。随着科技—伦理—社会这一框架越来越成熟,尊严在对科技的伦理反思和法律评价之中的分量越来越重。相比于传统理论的多种分类方式,尊严与人工智能的理论模式尚不成熟,本文将尊严理论与人工智能之间的互动概括为三种模式。

(一)人工智能与人的尊严的三种理论建构模式

1.底线模式

底线模式预设了一个较强的尊严概念,但并不主张尊严为社会理解和实践提供强有力的指导。底线模式关于尊严的理解有两种路径。一种路径主张尊严是一种内在和固有的价值,是人的客观属性。这种属性是不可否认和不可改变的,是人的最终目的之所在,因此强调尊严在所有人类个体和一切人类生命形式中的同等拥有和绝对神圣性。这种立场的代表性人物是康德,现代的倡导者有塞弗特(Seifert)。尽管这种尊严观充满厚度,但并不意味着它对人们的社会实践所提出的要求也是厚重的。尊严向道德要求的转化需要一个机制,但从人的内在价值如何推导出具体的道德标准?尊严概念本身无法回答,因此尊严的转化是一个由强变弱的机制。在关于人工智能的讨论中,这个特征体现得尤为明显。第二种路径主张人的尊严可以被视为人工智能科技发展的强约束和伦理底线。但除了强调人工智能向善之外,尊严未能提供更有价值的引导。与尊严异曲同工的阿西莫夫定律,陷入了类似的困境。以不伤害人类作为人工智能发展的底线,实际上并未回答任何实质问题。比如无需由人操作的自动化智能武器,是否构成威胁人类尊严的技术力量?底线模式能够展示自动化智能武器或者个性化推荐技术等对人的生存环境和自我选择所造成的冲击,但无法给出具体有效的标准让人们能做出产生指引作用的伦理判断。因此,反对者认为尊严在科技问题上是绊脚石,带来的是混淆而非清晰性,我们应该放弃这个概念。

2.温和模式

多数尊严理论家采取了一种温和的理论建构模式,将尊严视为人的一种独特的社会存在状态,将人与其他生物相区分,让人对自身产生独特的理解。代表性理论有沃尔德伦的尊严的地位观。沃尔德伦并不强调尊严是具有内在属性的价值,而是将尊严视为人的应受特别尊重的一种地位。在古代,这种地位只有少数尊贵的群体才享有。而在现代,每个人都具备了这种应受尊重的地位,而且需要在社会生活和制度实践的方方面面呈现出这一地位的重要性。法律制度是体现人的尊严地位的最佳机制,内含着对尊严的全方位追求。沃尔德伦的温和模式在理解人工智能的社会意义上具有优势,人工智能从整体上是对人的能动性和地位进行影响和重组的技术力量,反映出人的智能的独特性以及人对未来世界的展望。但这种模式在展示人工智能的伦理意义上也存在局限。

一方面,人工智能不仅反映和强化了人的独特地位,也参与创造了人的独特性,将计算秉性赋予人的决策和推理过程,尊严的地位理论无法对人工智能的创造性塑造作用做出充分说明。沃尔德伦对传统地位尊严观进行改造后,将尊严的等级观念放在本体论的位置上,这是对价值的错置。因而无法化解尊严在实践推理中的价值冲突,特别是在人工智能对人的地位的影响不能明确的情况下更是如此。在逻辑上,价值尊严概念具有优先性,尊严的等级观念不可避免地预设了一种价值。另一方面,沃尔德伦对法律寄予了过高的期待,他认为法律的存在本身就是一种有效的尊严保护机制。然而,法律在保护尊严的问题上时常失败。尤其在人工智能的监管问题上,法律受制于复杂的价值分歧,针对人工智能技术应用的伦理边界难题常常束手无策。

3.整全模式

尊严的整全模式强调尊严是构筑人类生活的主线,是一种统摄性和支配性价值,即尊严定义了好生活的核心特征。纳斯鲍姆和德沃金是整全模式的典型代表。纳斯鲍姆将维持人生存的一些基本条件称为核心能力,比如生命、身体健康和实践理性等,这些能力是展现人的尊严的必需要素。德沃金提供了一种虽然差异较大但同样具有整全色彩的尊严观。他认为尊严的核心是人的固有价值和本真性的结合,这两个要素支撑起好生活的本质,人有责任在生活的各个方面活出尊严的样式。人的固有价值是人自身的内在重要性,本真性则要求人在社会生活的每个领域活出这种价值状态。因此,尊严是所有其他价值的源头和根基。整全模式的优势在于它将尊严实在化和具体化,人的自身状态和社会条件都可以成为尊严的内容,这个优势在理解人工智能的伦理深度上体现得更为明显。

但这一模式也存在很大局限。无论是作为核心能力还是作为好生活之支配原则的尊严,在价值推理中的色彩过强,反而淡化了其他价值的重要性。例如,纳斯鲍姆强调宪法上的权利、平等和自由等都是核心能力的体现,有前后颠倒之嫌。人工智能在某些方面确实是与人的核心能力相关,比如实践理性。但科技对人的影响的很多方面与能力无关,只是与人的存在空间和状态相关,比如算法歧视并不涉及人的能力,而是与人的主体性地位相关,隐私保护也是如此。隐私并非能力的体现,而是个人不受滋扰的自处空间的反映。德沃金的尊严观的预设过于强烈,虽然比起底线模式更有实践指引意义,但容易产生以尊严替代和压缩其他价值之空间的效果。

(二)建构性尊严观之辩护

本文尝试提炼一种面向人工智能的尊严观及其法律实践内涵,以克服前面三种模式的缺陷,并展示化解人工智能伦理挑战的出路。人工智能科技的计算性和计算逻辑对人的尊严造成三方面的冲击。

第一,人工智能使得人的尊严的价值状态处于一种连续创造的过程之中,只要人的尊严具有外在社会属性和关系属性,则人工智能的计算性始终对尊严的外在属性进行加工,并会改变尊严的规范效力或者所引发的责任状态。

第二,人工智能对人的自我理解的冲击使得尊严的内在价值属性的存在论意义发生改变。即使这种改变不是剧烈的,但随着技术应用的不断拓展,比如自动驾驶汽车的发展、强人工智能的出现,尊严的存在论意义会不断被重构。

第三,人工智能技术带来了人性的计算化和人格的延展,产生出数字人格这种独特的人格形态。数字人格并非一种新的人格形态,而是在人的既有人格基础上,借助于人们对人工智能科技的依赖和社会生活本身的数据化而形成的人格边际形式以及人机交互情感。如埃斯波西托所言,人工智能对人的个性化塑造“不仅影响了向观察者呈现世界的方式,而且还改变了世界本身,意识到这种影响会引发排斥感,将原本的赋权感转变为被动感和无能感”。比如人参与大量的实践活动,部分活动会被转化为数据并反过来改变人的行为选择,从而产生一种嵌入人格之中的人机互动方式。数字人格不会完全替代传统人格,但却是尊严内涵转型的关键要素。

在这一背景之下,一种建构意义上的尊严观有助于更好地理解人工智能与尊严的关系。这种尊严观的理论目标并不在于提供一种彻底展现尊严之意义网络的完整理论,而是致力于回答如何在人工智能科技的冲击下捍卫尊严的基础地位,以关于尊严的浓厚价值共识来描绘并展望智能社会的伦理图景。

首先,尊严的存在论意义被扩展,抽象的内在价值与尊严在外在关系中的数字化被调和,转变成与智能社会相呼应的数字伦理。数字伦理的内涵丰富且多元,尊严并非整全性要素,而是统摄性要素,既能在数据伦理的各种要素之间进行统合,又无需像整全模式那样赋予尊严过重的论证负担,反而无法解决科技实践中存在的大量价值冲突。

其次,借助于格里芬的规范能动性概念,尊严在人工智能科技实践中的外在规范内涵可以得到充实。尊严的抽象价值性使得这个概念一直面临着实践指向不明的指责。格里芬指出,规范能动性是人类所特有的能力,是选择和追求值得过的那种生活设想的能力。在人类实践中,借助于规范能动性的实施和各种条件的保障,人的尊严得以彰显。规范能动性要求人们成为权利和责任的主体,也需要社会提供最基本的生活条件。尊严内涵的实践转型既保持了尊严所具有的人性色彩,也让尊严在人类行动者的生存条件中体现出指导意义。人工智能既改变了人的规范能动性的实践条件,也更新了人的人格状态。基于规范能动性的视角,可以更好地呈现社会实践的计算转型对价值世界的冲击及回应之道。

最后,人工智能带来的社会转型催生出数字治理和数字法治等公共议题,尊严维度的缺失导致数字法治实践中的价值冲突难以化解,不同价值之间无法融贯,价值实践的边界不易划清。数字正义是数字法治的价值追求,数字人权是当前数字治理和监管的主要价值依据。关于数字正义与数字人权的理论分歧,部分产生自尊严概念的模糊不清。一旦将尊严的计算性构造及其规范性转型呈现出来,人工智能公共治理中的许多价值问题便迎刃而解。

三、人工智能与人的尊严的法理建构

从建构性尊严观的三个方面出发,我们可以展现建构人工智能与人的尊严的三重维度。人工智能技术的发展既有“随风潜入夜”的方面,对人格状态和社会观念产生渐进式的影响,也有疾风骤雨式的冲击,不断突破社会想象力。只有在尊严理念之下,才能既在价值根基上守住底线,防范人工智能科技的颠覆式影响,让智能社会守住善治社会的底色,也能充分应对各种形式的伦理挑战。人工智能与人的尊严的法理建构包含很多方面,但应从维护数字伦理、培育数字人格、捍卫数字人权三个主题展开。

(一)维护数字伦理

数字伦理的内涵极其广泛,随着人工智能技术应用的不断拓展,其主题也在不断累积。当前存在着大量关于机器伦理、算法伦理和人工智能伦理的讨论,相互之间存在重叠,但也有差异。这些差异的背后,反映的是人工智能伦理究竟是以人为中心、以人机关系为中心还是以机器为中心。从尊严与人工智能的建构性关系来看,人工智能伦理应该是一种以人机关系为中心的伦理。具体来说,人工智能伦理关注社会生活的数字化和计算化如何改变了人们的伦理理解和相互对待的方式,以及如何让智能的使用更好地服务于我们的价值实践。

当前关于数字伦理建构的路径,在一定程度上忽视了尊严的地位。将尊严的建构性角色纳入人机关系基本原则的提炼之中,有助于走出数字伦理构架的困境。当前关于人工智能产业发展和监管中的诸多举措,比如人工智能监管中的价值对齐和数据产业发展中的科技伦理评估,围绕的核心都是尊严,关注的重点无非是尊严的两个方面:一是尊严如何在具体技术实践中转为可操作的伦理原则,比如人本主义立场所包含的福祉、尊重和责任,本质上都是尊严如何在实践中通过具体的原则得以实现;二是尊严的抽象性需要借助于具体的实践伦理原则加以转化,但尊严并非消极被动的静态价值,而是在人际关系和社会交往状态中不断被挖掘和释放的价值。

当然,尊严自身并不会“说话”,而是要在智能社会的建构之中呈现出其具体内涵,这使得尊严容易成为一种相对主义的价值,不再具有内在价值性。尊严的内在价值性与外在建构性之间的紧张仍然需要借助尊严在智能社会中的计算秉性加以解决。麦可兰德(McClelland)提出尊严具有自然主义内涵,他借助生物学理论对尊严的自然属性进行解释,比如人类合作的自然倾向与实践就是尊严价值的体现形式。借鉴这一解读,我们也可以说在人工智能的计算性之中也有尊严的存在载体。举例来说,歧视是人工智能技术应用的伦理担忧之一,反对歧视也是数字伦理的要求。然而,如何判断人工智能构成歧视?社会中的歧视背后通常隐含着偏见和歧视的意图,但人工智能系统的歧视却是无意图和无心理过程的,因此经典的反歧视理论无法用来判断人工智能是否构成歧视。因此有论者认为对歧视的界定应当脱离价值判断,转向对歧视的社会行为结构的分析。

然而,我们不能因为歧视引发价值争议就否定歧视的价值色彩,尤其是在人工智能技术对传统价值带来计算式改造的语境下。人工智能计算需要输入海量相互关联的数据和素材并释放数据的社会意义。人工智能歧视并不是将对人的区别对待(比如对男性与女性的区别对待)作为素材输入到算法之中,而是将人在计算网络之中被算法对待的方式和结果作为人的人格状态的组成部分。如果人在复杂的计算过程中产生了不同的境遇,这种处境无法让人们合理地接受,而且这种计算结果会在社会语境中引发更为不确定的伦理后果,则可以做出人的尊严受到了不公允的计算性损害、个体受到了歧视的初步结论。

(二)培育数字人格

尊严在数字伦理中的内涵不是静态的,而是在建构的过程之中不断被动态地强化和充实。在人工智能技术实践中捍卫尊严的一项重任是培育数字人格,这一任务通过促进和优化人的规范能动性来实现。人格是人的独特自主性状态,人的尊严通过人格来呈现。人的尊严在实践中所受到的贬损,或者人的尊严在概念上的含糊性,部分原因在于规范能动性未能充分彰显,数字人格未得到充分确认。

数字人格提供了智能社会的评价尺度。过去十年间,随着人工智能技术的突飞猛进,中国的人工智能技术应用空间呈现爆炸式增长。技术变革带来了剧烈的社会变迁,对个体和社会的整体福祉造成重大影响。个体与平台、政府与平台之间的关系成为社会关注的核心,比如困在算法系统中的外卖骑手,虽然隐藏但不断扩张的数字霸权等,引发人们的深刻担忧,但存在着多种不同的诠释可能。数字人格是对数字技术发展进行评估的重要尺度。一方面,我们不能忽视数字技术在培育数字人格上的积极作用。人工智能技术有助于实现个体福祉,而且确实在知识分享和决策优化上带来了实质改变。另一方面,人工智能科技同时也将人的数字人格置于一种危险境地。当前的人工智能科技监管只是提供了关于科技向善的宽泛原则,比如风险防范、最小损害等,并未揭示出科技对人的规范能动性的冲击,也无法呈现数字人格所面临的挑战。

培育数字人格,需要以规范能动性作为尊严的载体,用以评估技术应用对能动性实践的影响。任何一项人工智能技术应用,在本质上都是将个体人格状态置于一个价值论辩的空间,通过技术的社会与价值评估来判断规范能动性的实施可能性。以隐私权保护为例。隐私权是人的尊严的直观体现,但如何评估人工智能技术对隐私的影响,在实践中遭遇难题。尼森鲍姆针对隐私这一极具争议性的概念,提出了非常独特的分析视角。她认为只是从价值内涵或者表现形态上来理解隐私是不够的,必须以场景作为背景,展示隐私在场景之中的意义、冲突和保护方式。在信息时代,隐私在不同的场景之中呈现为不同的信息流动状态。要更好地保护隐私,首先要理解具体场景的价值及目的,其次要以场景一致性作为目标,构建关于信息流通和隐私保护的信息规范。

场景一致性是一种具有吸引力的规范设计方案,它要求隐私保护既要深入具体场景之中,判断场景中的利益冲突、成本收益等,同时也要在纷繁复杂的不同场景之间保持价值目标上的协调。场景理论淡化了隐私价值的独立性,而将之放置在信息流通的具体实践之中加以分析。但场景理论无法识别规范能动性在动态的计算化实践中的清晰边界,因此也就无法实现价值目标的协调。例如,穆尔霍夫(Mühlhoff)认为,在使用人工智能对人的行为进行预测分析时,使用个人公开数据也可能会对个体隐私造成冲击和威胁。场景一致性理论并不能识别出这种威胁。只有在数字人格的视野之下,才能更准确地识别预测技术对数字人格状态的潜在影响,以规范能动性受损的可能程度来判断预测技术是否真正伤害隐私。

(三)捍卫数字人权

人工智能的技术实践呈现出强烈的公共性,人工智能既要受监管,也能用于监管。二者在本质上都涉及数字正义问题,即权力行使是否恰当,边界在哪里。因为尊严是正义的指导性要素,正义的制度设计应当体现公允尊重和合理,尊严论证有助于强化这些价值内涵嵌入数字技术的论证程度。数字人权是建构性尊严观进入法律实践的缓冲地带,也是规制人工智能的价值枢纽。数字人权的人权属性来自人的尊严,即规范能动性受保障的条件,只有赋予数字人权,这些条件才是可获得的,否则就只能依赖特定的环境。

当前学界对于数字人权是否能够证成存在争议。支持者认为数字人权是保障数字时代之个体权益的统合性人权类型,只有数字人权才能为数字立法和数字权利保障提供支持。反对者则不认为数字人权具有区别于其他人权类型的独特属性。数字人权的理论证成面临内外两重困境:内在方面,数字人权的价值基础存在不确定性;外在方面,数字人权欠缺清晰的制度形态和法律保障机制。

基于建构性的尊严观,数字人权是个体在数字实践中的规范能动性的体现。尊严的内在价值性与外在建构性为数字人权提供了温和的支持。一方面,人权的价值根基具有多元性,与人类生活的各项条件紧密相关,无需从尊严这个概念中获得强支持,人权也并非体现人的尊严的唯一机制。在日益复杂的科技实践中,为了更好地保障人的规范能动性的实践条件,有必要通过尊严为人权进行强化论证和价值补强。另一方面,人的尊严在人工智能语境下的建构性及规范能动性在计算化社会实践中的创造性空间为数字人权的制度落实提供了价值底色,也发挥着统摄性价值强化和论证性价值平衡两种功能。

首先,数字人权是数字权力行使和数字制度设计的价值基础和评判标准。数字化和计算化改变了人与人之间的支配关系,将技术支配纳入人的支配结构之中,创造了一种新形态的公共生活,“促进了人的数字化和透明化,使得基于数字技术的支配和规训得以形成”。数字人权包含着人的规范能动性免于技术不当支配的潜在威胁这一维度,这意味着公共权力实践的计算化转型要满足计算的公共性和个体能动性不受阻碍两个条件,因此数字人权包含着免于不透明的自动决策和能动地参与公共数据生产的创造性过程这两种权利形态。一方面,数字化决策必须满足公共性要求,“其互动和知识培养了一种决策文化和风气,支撑着官方(尽可能忠实地)追踪公众对其利益的不同看法,从而履行民主职能,做出(尽可能)重申这些利益的决策”。另一方面,个体能动地参与到公共数据生产过程之中,个体既是计算世界的组成部分,也有权利参与这个计算过程,通过民主化的数字互动提高个体对数字公共生活的参与程度,从而提升规范能动性的实践空间。

其次,数字人权在数字实践中的具体形态多种多样,并且还在不断拓展,比如数据权、信息权等。数字人权相比于传统人权和具体权利的优势在于,通过尊严价值的建构性纳入解决了数字法治中的价值精确度问题。价值精确度要求“算法系统的设计者必须明确规定相关价值的选择和数学精确度的协调,并将这些数学关系建构到算法的目标函数之中”。数字人权将计算化社会实践过程中的政府、数字平台、技术研发者和用户等纳入一个可计算的规范空间之中,既呈现出数字权利(比如数据权)的社会现实结构,也将人格属性赋予各种数字权利,比如在数字世界中的认知权利。在这个意义上,数字人权发挥着统摄性价值强化作用。

最后,数字人权也具有论证性价值平衡功能。人权价值面临着具体化和司法适用难题,数字人权亦不例外。数字人权的尊严面向有助于克服这一困境。虽然尊严是法律实践的核心价值,但尊严并不是决定法律决策尤其是司法决策的唯一因素。在关于人工智能科技立法、数字监管和数字权益保障的复杂法律实践中,尊严以建构性的方式发挥统合作用。一方面,社会的计算化变革必须围绕提升和保障人的规范能动性这一任务进行。个体数字人格借助于人工智能技术得以充实,同时又防范人工智能对数字人格的威胁和侵蚀。另一方面,通过在司法裁判中释放数字人权的论证性价值平衡功能,可以体现出尊严的基础价值性和建构性意义。

结 语

人工智能创造了前所未有的人类发展前景,同时也伴随着伦理震荡和社会挑战。法律是应对人工智能伦理挑战之最佳策略,但必须充分展示人工智能的伦理图景。人的尊严是人之本性的展现和社会实践的价值源头,人工智能重塑了人的尊严的实践空间,也要以人的尊严为价值依据在社会实践中发挥其功用。建构性的尊严观有助于厘清人工智能和人的尊严的伦理关联。规范能动性是人的尊严的体现,通过把规范能动性与人工智能和算法技术所带来的人格计算化相结合,一方面展现人权的活力基础,另一方面为人工智能技术应用建构价值边界。基于规范能动性的数字人权观强调将人的尊严内在的价值展现在技术应用过程中,在算法应用中赋予技术之支配性以价值精确度,在尊严框架中推进人工智能法治,从而为智能社会的未来保驾护航。

本文作者郑玉双,中国政法大学法学院教授、博士生导师。北京 100088

本文原文刊载于《浙江学刊》2024年第6期。注释从略,如有需要请参阅原文。

中国政法大学科技成果转化基地

0条评论|0人参与网友评论
最热评论

财经自媒体联盟更多自媒体作者

新浪首页 语音播报 相关新闻 返回顶部