以下文章来源于比较法研究 ,作者陈景善
作者:陈景善,中国政法大学民商经济法学院教授,法学博士
出处:《比较法研究》2024年第6期
目次
一、引言
二、人工智能何以赋能公司风险治理
三、人工智能协同公司风险治理何以可信
四、规范化进路推动人工智能赋能公司风险治理
五、结语
摘要:我国公司法第177条规定,国家出资公司应当建立健全内部监督管理和风险控制制度,加强内部合规管理。风险治理的意义不仅在于建立风控机制,更重在健全与加强风险管理。在此过程中,人工智能的辅助作用不可忽视。《欧盟人工智能法案》明确了对于高风险人工智能系统的风控要求,在风控机制中引入人工智能系统,并非仅通过全面智能化提升效率,更在于有效利用与健全风控机制、加强内部风险管理。在风控机制中实现人工智能与风控机制的高度一体化离不开技术性支持。通过人工智能的生成机制提高管理效率、改进监督机制,并结合技术与人工的各自优势驱动风控决策,方能达到风控的高度健全化。以规范化进路推动人工智能赋能公司风险治理,必须充分考虑人工智能所带来的新型业态,合理借鉴反身法的部分元素,形成超越形式法和实质法思路的新型规制模式。为此,应当激活任意性规范的接口功能,通过弹性规范实现快速响应,并充分发挥预见性规范的引导作用。
关键词:人工智能;智能风控;可信性;信义义务;弹性规范
01引言
《欧盟人工智能法案》界定了“人工智能系统”,并提出将风控机制纳入人工智能系统。人工智能在社会实践的各个方面均具有显著的应用优势,其可以通过机器学习和数据训练生成结果,补强人工所达不到的效率。在公司治理领域,人工智能的应用潜力同样巨大,其赋能作用几乎涉及公司职能的所有方面。其中,人工智能的智能、敏捷与精确特征使得其在数据收集、风险预测、决策生成等方面具有显著优势,因此可以与公司风控机制紧密衔接。通过将人工智能系统应用于公司风险治理,能够使得风控机制更加高效、数据动态整合更加灵活,进而达到公司风控机制高度健全的效果。基于已有实践不难预测,人工智能在公司风险治理中的运用将更加深入和强化,利用人工智能的强化学习手段进行公司风控决策不再是天方夜谭。然而,人工智能在其他领域中的应用也暴露了其诸多缺陷:由于人工智能的决策基础是历史数据集,本质上是面向过去的,这使得人工智能面临潜在的系统性偏见;同时,人工智能的神经网络结构中存在隐藏层和大量数据,即使是算法的设计者也无法准确解释其决策原因;人工智能结构的不透明性可能会影响决策的透明度,削弱决策者的可归责性,甚至完全消除责任。2023年《中华人民共和国公司法》(以下简称“《公司法》”)第177条提出公司监督与风控机制的建立与健全,而在人工智能应用于公司风控机制后,其究竟如何赋能公司风险治理实践,又该如何克服人工智能在其他领域中暴露的技术弊端,实现人工智能系统在风险治理中的可控可信,无疑具有理论与现实意义。尽管在人工智能应用的初期阶段,探索与试错是必要的成本,但从长期来看,人工智能应用于公司风险治理仍应采取规范性进路。在此意义上,法律规范如何应对人工智能系统的快速革新,如何有效缓和公司商业自由与人工智能监管之间的张力,又该如何保持监管与创新之间的平衡,实现法律规范的动态性与灵活性,是目前有待深入研究的课题。有鉴于此,本文将围绕人工智能协同公司风险治理展开讨论,在剖析人工智能的赋能机理的基础上,分析应如何增进人工智能风险治理的可信性,并在此基础上探索一条超越传统规制模式的、以人工智能赋能公司风险治理的规范化进路。
02人工智能何以赋能公司风险治理
从实践来看,将人工智能技术应用于公司风险治理是公司治理领域的新型业态。在社会系统论学者看来,这体现了数字科技与公司治理这两个“运作封闭且认知开放”的独立子系统基于“结构耦合”的系统交互。相较于传统的公司风险治理手段,人工智能技术的应用为公司风险治理带来了前所未有的优势,“技术赋能”已然成为公司风险治理的发展方向。具象观之,人工智能技术主要在公司风险审查、公司风险监测、风险信息更新以及智能风险预警这四个方面,以一种业态涌现的方式为传统公司风险治理实践注入了新的活力和特质。
(一)公司风险审查的效率性
传统的风险审查过程往往繁琐且耗时,涉及大量的手动检查和文档审核。人工智能通过自动化工具的应用,能够显著提高审查效率。具体而言,风险审查运用人工智能之后,内容更为全面深入,而审查流程本身也得以自动化。在风险监督方面,人工智能成为分析重要决策信息流的主要工具,减轻了董事在风险控制任务中的负担。例如在环境、社会和治理(ESG)方面,目前ESG正成为席卷全球的新型商业发展趋势,《公司法》第20条通过分层的公司ESG构造,为ESG要素嵌入公司治理与董事信义义务提供了有利的规范空间。然而,ESG概念本身高度凝练,不存在清晰的判断标准,何种公司治理符合ESG要求难以确定与评估。专门从事ESG投资的基金可借助人工智能过滤投资组合,排除与战争有关的投资,并对生产传统武器的公司设定严格的限制。人工智能可以协助分析和管理基金已经持有的公司权益,以影响其环境、社会和风控政策,并对这些投资的一致性、影响和实际盈利能力进行及时评估。尽管人工智能在风险监督中具有显著的优势,但无法完全替代人工判断。因此,最理想的场景是人工智能与人工董事高管共同协作,实现风险监督的高度精确化。完全依赖人工智能可能导致风控机制的不透明性,并且由于机器学习主要基于历史数据,无法完全应对市场的瞬息万变。因此,人工智能应作为辅助工具,提高效率,健全风控机制,确保风险监督的整体质量和效果。
自2019年政府工作报告正式提出“智能+”战略以来,各行各业数字化转型的进程明显加快,在线办公、在线教育、在线生活等数字经济模式已经成为日常模式。在公司风险审查领域,自动化审查系统被广泛应用。自动化审查系统通常包括自动化工作流程和智能风险审计工具。自动化工作流程可以将文档审核、数据输入和记录管理等任务交给人工智能完成,从而减少人工干预,提高处理速度和准确性。机器学习和自然语言处理(NLP)技术使得人工智能能够快速分析大量文档,自动提取关键信息,识别不合规条款和潜在风险。人工智能系统可以实时扫描合同和报告,识别出与规定不符的条款或潜在的风控问题。智能风险审计工具则通过持续监控和数据分析,提供实时的风险状态报告,帮助公司及时发现并纠正风控问题。人工智能在文档管理中同样发挥了重要作用,人工智能技术可以对大量文档进行分类、标记和存储,提高文档检索和管理的效率。智能文档分类和自动标记,使得人工智能能够快速定位相关文档,支持高效的审查过程。此外,人工智能还可以跟踪文档的更新和修改,确保所有文件都符合最新的风险控制要求,不断健全风险管理流程。通过前端工具、程序工具与数据模型的密切配合,公司风险审查的效率和准确性相较以往明显提高。《十三五国家审计工作发展规划》强调“积极应用云计算、数据挖掘、智能分析等新兴技术,提高审计效率”,在可预见的未来,人工智能协同公司风险审查的发展趋势必将继续深化。
(二)公司风险监测的集成性
人工智能的应用正在重新定义风险监测与评估的方式。人工智能通过实时监测和动态评估的能力,大幅提升了风险管理的效率和健全化水平。人工智能技术的实时数据处理能力使得风险监测不再是静态的任务,而是动态且持续的。企业通过部署人工智能驱动的监测系统,能够即时捕捉和分析信息传递中的异常或潜在风险。这种实时监测不仅包括公司内部记录、电子邮件、电话通信等,还扩展到人事管理和产品质量检查等关键领域。在合同管理中,人工智能能够实时监控合同条款的执行情况,及时发现潜在的治理风险。人工智能系统还可以自动识别合同中的不一致之处或遗漏,预警相关人员,帮助企业在问题发生之前进行调整。通过实时风险监测并对海量数据进行动态评估,人工智能能够及时地实施预防性措施或者补救措施。对数据处理活动进行风险评估的功能包括评估数据处理活动是否存在风险、潜在风险的严重性、危险的频率以及确认避免危险的措施等。这种动态评估能力显著提高了风险管理的前瞻性和响应速度。
人工智能在风险管理中的高度集成表现为将不同的风险评估和监测功能无缝连接在一个统一的平台上。企业通过这种集成,能够将内部记录、监测结果和风险评估信息整合在一起,实现数据的集中管理和统一分析。高度集成的风险管理系统不仅提升了信息流通的效率,还增强了风控机制的整体协调性。在处理商业秘密或敏感信息时,人工智能系统可以结合合同管理、电子合同审核、风险提示功能,自动化补充和修正合同条款,减少人工处理的误差和疏漏。这种高度集成化的系统能够自动生成风险管理所需的简约信息,并根据输入的关键词提示相关的风险信息,使得企业在面对风险管理时更加高效且准确。信息的自动生成和提示功能,使得企业能够快速获得所需的数据支持,从而作出更加及时和有效的决策。在平台运营方面,人工智能技术已经被广泛应用于违法信息的监测和处理。通过人工智能系统,平台能够高效识别和删除大量的违法信息,以履行法律义务和满足社会需求,同时也显著提升了信息管理的效率和准确性。人工智能在风险评估和监测方面的应用不仅提高了效率,也推动了风控机制的高度一体化。通过实时监测与动态评估,以及高度集成的风险管理系统,企业能够更好地应对和管理各种潜在风险,实现更加全面和可靠的风险治理。通过智能化的手段,人工智能不仅能够提高信息传达和监测的效率,还能优化风控事务的处理。随着人工智能技术的不断发展,风险管理和监测的高度一体化将为公司治理提供更加全面、精准的支持。
(三)风险信息更新的及时性
公司治理机制的功能与目标是改善公司治理的效率并尽力实现公司治理效率的健全性,这也体现在风险治理主体的设置上。《公司法》第177条规定的风控机制的健全,不仅体现在公司监督机制,还进一步体现为风险管理决策。风险管理决策的本质是有意识地在多个选项中做出选择,这些选项可以是二元的,也可以是多元的,而决策结果取决于一定的标准。基于信息的知悉,决策通常包括三个阶段:概念化、信息收集和预测。这三个阶段可以细分为决策感知、框架构建、信息收集、信息选择、方案识别和方案评估过程。人工智能在风险管理决策机制中的运用也是以此决策过程为基础的,具体可以分为“风险信息收集、风险预测、风险管理决策”三个应用阶段。概言之,人工智能在风险管理决策中的应用,通过健全数据处理和分析效率、实现自动化决策支持以及提供智能分析和预测,显著提升了风险治理的效率。智能风控的出现使得风险管理决策变得更加高效和精确。对比传统的风控,智能风控可以更清晰地显现人工智能在健全风控效率方面的优势。传统的风控通常依赖于静态的数据分析和手动更新,无法及时应对法规变化,也缺乏自动化的分析能力。传统的风控系统需手动输入数据,并依赖于人工检查和更新,这不仅耗时且容易出错。智能风控利用人工智能技术进行实时监控和自动化处理,具有明显的效率优势。智能风控可以实时跟踪法规等风险管理的变化,并自动更新风控要求。这种实时性大幅健全了风险管理的效率,避免了传统方法中的滞后和错误。通过自动化处理和分析数据,人工智能可以显著提高风险管理决策的效率。换言之,人工智能可以快速处理海量数据,识别潜在的风险和问题,提供实时的决策支持。传统的人工处理数据的方法效率低下,且容易出现错误,而人工智能系统能够在短时间内完成大量数据的处理和分析,确保数据的准确性和及时性。
人工智能还可以从海量数据中提取有用信息,识别模式和趋势,从而为决策者提供实时和精确的决策支持。如前所述,人工智能可以利用历史风控数据进行预测分析,识别潜在的风险,并提出相应的风险防范措施。人工智能系统可以通过自动化的方式生成风控报告和建议。这不仅节省了大量的人力资源,还能在减少人为错误的同时提高决策的准确性。在企业风险审查之中,企业利用实时数据的采集和分析,能够在瞬息万变的市场环境中更加迅速和准确地作出判断。人工智能技术的引入不仅提高了风险决策的智能化程度,还为风险治理带来了前所未有的动态适应性和预测能力。动态风险评估模型的核心在于其能够根据不断变化的外部环境和内部的实时数据,自动更新和调整自身的判断标准和风险策略。其中,实时数据分析是动态风险评估模型中的重要环节。在数字经济时代,实时数据已经成为企业风险治理的重要基石。人工智能的实时数据分析能力使得公司能够在风险管理中实现动态信息更新,实时监控业务活动和风险状态,及时响应潜在的风险事件。在发现风控异常时,人工智能系统可以立即触发警报,并向相关部门发送通知,支持快速响应和纠正措施。
运用实时数据分析的动态风险评估模型已经在多个领域的风险治理中得到了应用。在金融领域,实时交易数据可以帮助人工智能系统监控市场行为,识别潜在的洗钱活动或异常交易模式。一旦发现可疑行为,系统能够立即发出警报,促使风控机制采取必要的预防和纠正措施。金融市场中的监管政策可能会随着市场条件的变化而调整。动态风险评估模型可以实时获取这些政策变化的信息,并自动调整系统的风险监测和审查策略,确保企业始终符合最新的监管要求。在医疗领域,实时患者数据的分析可以帮助医院和制药公司确保其操作符合最新的医疗法规和伦理标准。在供应链管理中,实时物流数据可以帮助企业确保在供应链各环节遵守国际贸易风控要求。在数据安全保护领域,随着全球数据保护法规的不断演进,企业的数据管理系统需要不断更新和调整,以避免因法规变更导致的风险。动态风险评估模型可以实时监控各国法规的变化,并自动调整数据处理和存储策略,确保企业在数据风控方面保持领先。
(四)智能风险预警的准确性
相较于传统的风险治理手段,智能风控能够预测潜在的治理风险,并提供针对性的防范措施。人工智能可以识别出潜在的风险问题区域,并在问题发生前提出预警,帮助公司提前采取措施。通过对比,智能风控在处理复杂问题时展现出显著的优势。例如在反洗钱和反欺诈方面,人工智能可以分析数以百万计的交易,识别异常模式,从而帮助企业迅速发现和应对潜在威胁,并健全风控机制。传统方式在处理海量数据时效率较低,而智能风控则能够快速分析和处理数据,提高整体效率。此外,智能风控通过自动化和实时更新机制,减少了人工干预的需求,并提高了决策的及时性和准确性。人工智能可以通过机器学习算法,从历史数据中总结规律,预测未来可能的治理风险,并提出相应的防范措施。机器学习算法能够不断学习和改进,从而在数据中发现隐藏的模式和趋势。这种预测能力使得企业能够提前采取措施防范风险,避免潜在的治理风险。
具体而言,在风险审查过程中,人工智能系统自动获取最新的法规和政策信息,与企业现有的风控策略进行比对,发现不相符之处,并提出相应的调整建议。人工智能应用的场景化扩张已是难以逆转的趋势。我国科技部在2022年发布的《关于支持建设新一代人工智能示范应用场景的通知》中提出,要“充分发挥人工智能赋能经济社会发展的作用,围绕构建全链条、全过程的人工智能行业应用生态,支持一批基础较好的人工智能应用场景,加强研发上下游配合与新技术集成,打造形成一批可复制、可推广的标杆型示范应用场景”。在此语境下,智能风险预警已经着眼于人工智能的具体应用场景并聚焦个性化风险:在国际贸易风控方面,人工智能可实时监控不同国家的贸易政策变化,避免因政策变化导致的违规风险;在财务审计过程中,人工智能可识别出异常的财务行为,提前预警,防止财务违规行为的发生;在信息资产风险管理和数据管理方面,人工智能与电脑系统录入的数据相结合,实现财务风险的全面管理,从而实现风险管理信息的高度整合。目前人工智能技术已深度应用于信息检索、实时数据协调、数据趋势分析、财务相关的预测、金融交易监控以及决策过程中的预测和情景分析等方面。同时,人工智能可根据不同的业务场景,提供个性化的风控建议,提高企业的风控水平。人工智能正逐步成为风险管理决策的重要支持工具,其在决策支持系统中的应用以及智能风控的效率对比分析,展现了人工智能在提高风险管理决策效率方面的巨大潜力。
03人工智能协同公司风险治理何以可信
前文意在表明,将人工智能技术应用于公司风险治理契合了公司实践的发展需求,弥补了传统风险治理手段之不足,因此公司风控的智能化发展趋势理当引起重视。但从另一方面考虑,在技术应用过程中所带来的新型业态也必将伴随风险和挑战。在此意义上,确保“技术可信”应当成为技术应用与技术发展的关键问题。在我国《新一代人工智能伦理规范》中,确保人工智能活动的“可控可信”亦是人工智能的六大基本伦理规范之一。因此,人工智能协同公司治理何以可信,理应成为公司风控智能化发展中的一个迫切关注的问题。对此的作答思路应当包含技术性路径与规范性路径,在强调人工智能系统可信性的同时,通过义务与责任规范的匹配落实主体责任。
(一)人工智能系统的适应性
值得注意的是,人工智能的可信性并不要求系统完美无瑕,但智能风控机制应当满足适应性要求,具备合理性和持续改进的能力。在日本系统技术案中,日本最高法院指出,风控机制中的智能系统不需要达到完美状态,只要能够有效防止违规行为并实现一定程度的风险管理即可。这一观点强调了人工智能系统在风控机制中的辅助功能,并信赖了其在风险管理中的作用。这意味着,尽管人工智能系统在技术上可能存在不足,但只要其设计和实施能够有效支持风控目标并具有在不同环境或变化条件下自动调整和完善其行为或策略的能力,便可被视为风控机制的有效组成部分,进而可以被信赖。除人工智能系统自身应具有一定的适应性外,为了实现风控的高度健全化,企业也需要建立持续改进机制,通过定期的系统评估和反馈,及时修正系统中的缺陷和不足,以适应不断变化的风控要求和业务环境。此外,人工智能系统可能会出现误判或误检,导致错误的信息处理或决策,即产生系统误差。国际动漫平台在使用人工智能检测违法信息时曾经发生误检,造成了对用户行为的错误判断。为了减少这种误差带来的负面影响,必须采取相应的纠正措施。企业应当建立健全反馈机制,及时纠正系统的误差,并对被影响的个人提供必要的救济措施,以维护数据主体的合法权益。
异常检测是风险管理中的关键环节,能够帮助企业及时发现潜在的风险和违规行为。人工智能系统可分析交易记录、用户行为和操作日志,检测出异常模式、异常的资金流动、频繁的系统访问等。人工智能的异常检测系统通常基于机器学习算法,能够从历史数据中学习和识别正常的行为模式,从而提高对异常活动的识别能力。经不断更新和健全模型,人工智能系统能够适应变化多端的风险环境,提供更准确的异常检测结果。对于已发现的异常检测结果,在满足预设条件的情形下,也会进一步触发风险的预警。人工智能系统能够通过预测分析,评估潜在的治理风险,并提出相应的预警措施。通过对市场趋势、法规变化和公司内部数据的分析,人工智能可预测未来可能出现的治理风险,并提前提醒管理层。风险预警系统结合了风险评估模型和智能预测技术,能够为公司提供实时的风险评估和预警信息。这些系统能够自动生成风险报告,帮助公司识别和应对可能的风控问题,减少潜在的法律和财务风险。概言之,人工智能在风险监督机制中的应用不仅提高了工作效率,还增强了风险管理的实时性和准确性。自动化的审查流程和异常检测系统,为企业提供了更加高效的风控支持,能够帮助其应对复杂的风控环境和潜在的风险。
(二)人工智能系统的合规性
如何应对人工智能带来的一般性风险是一个重要的议题,加强人工智能系统自身的风控是提升人工智能可信性的重要环节。全国信息安全标准化技术委员会发布的《网络安全标准实践指南——人工智能伦理安全风险防范指引》明确要求,开展人工智能相关活动应当对失控性、社会性、侵权性、歧视性和责任性伦理安全风险进行分析,并分别从研究开发者、设计制造者、部署应用者和用户的角度提出风险防范要求,这体现了对人工智能系统合规性的前瞻性部署。对于人工智能产生的风险可以采用“场景化规制”的方式,将人工智能风险还原到具体的行业、整体产品与已有的法律关系中,利用已有的行业和领域性风险监管以及现有的法律关系对其进行监管。人工智能系统在员工管理、招聘、考核和解聘等方面的应用涉及个人隐私保护、数据保护以及劳动者权益保护问题,因此必须遵守相关的法律法规。《欧盟人工智能法案》采取了场景化规制的方式,在劳动者雇佣、管理、聘任、考核、升职以及解聘等方面,人工智能的应用被归类为高度风险。这意味着在这些领域使用人工智能进行监督和评价时,必须严格遵守相关法律法规,确保能够有效处理个人数据并降低侵害劳动者权益的风险。人工智能算法的复杂性、不透明性、难解释性、适应性、运用广泛性等特征,可能会在基本人权、社会秩序、国家安全等诸多方面产生一系列伦理风险。伦理准则也是人工智能风控框架的重要组成部分。对此,企业可以在内部设立数据伦理委员会,审查与处置数据技术开发、数据传输、数据存储、数据处理与使用的伦理性。
在人工智能技术不断发展的背景下,如何实现效率化与高度健全化的协同治理,成为技术创新与社会责任之间平衡的关键。实现这一目标的具体路径,包括技术与法规的双向互动、实时数据与人工智能驱动的风控决策以及风控文化建设。人工智能在风控机制中的应用以经营管理层为核心,其作用不仅在于数据处理和分析,还包括对企业风控机制的监督和审计。人工智能可以与监事会、审计委员会以及注册会计师的审计监督相结合,通过实时监控和自动化审计健全风控的精度和效率。人工智能在风控管理中体现了不同程度的自主能力(autonomy),在缺乏人类干预的情况下执行特定任务。根据智能程度的不同,人工智能在公司治理和决策中的自主能力可划分为六个层次:完全无自主能力(级别0),协助(级别1),加强(级别2),放大(级别3),高度自主(级别4)和完全自主(级别5)。在这些层次中,人工智能可以有效分担董事会的监督任务,使董事能够集中精力应对实时变化的市场状况并作出商业判断。智能与人工结合的董事会应具有精简、开放、数字化、创新导向和操作性强的特点,并将重点放在战略和运营管理上。人工智能在风险监督机制中的应用,正逐步成为提升风控效率的重要手段。通过自动化监督与审查流程、异常检测与风险预警,人工智能不仅健全了监督机制,亦显著增强了风险治理的效果。
(三)人工与智能的有效结合
人工智能驱动的风控决策正逐渐成为企业治理结构中的核心部分。随着人工智能技术的成熟和普及,企业能够更精确地管理风险。通过人工智能的应用,企业的风控操作记录将具有更高的透明度,其能够确保所有风控行为可追溯且不可篡改,从而健全风险治理的公信力和透明度。基于实时数据的动态风险评估模型不仅有助于防范风险,还能显著降低企业因风控问题而面临的法律责任和经济损失。通过实时数据与人工智能技术相结合,企业能够构建一个全方位、无缝连接的风险治理体系,有效应对复杂多变的风控挑战。通过掌握企业的行业特点、业务范围等具体运营细节,智能风控亦能更有力地“穿透”企业违规的原因。人工智能系统能够自动化扫描和分析合同文本,快速识别出可能违反公司政策或法律法规的条款。这种能力显著提高了风险审核的效率,减少了人工审查可能带来的误差和疏漏。传统的风险审查往往依赖于单一数据源或线性分析方法,难以全面捕捉复杂的风险。人工智能系统能够同时处理结构化和非结构化数据,并利用深度学习、自然语言处理等技术,全面分析与风控相关的各类信息。在电子商务平台上,人工智能可以实时监测用户评论、社交媒体动态和交易记录,以识别可能涉及的欺诈行为或不正当竞争行为。这种综合分析能力使得人工智能在风险治理中表现出前所未有的效率和准确性,帮助企业更好地应对复杂的风控环境。人工智能在风控领域的应用也将进一步扩展到跨行业、跨国界的风险治理中。通过实时数据共享和人工智能技术的全球化应用,跨国企业可在不同的法律体系下,保持一致的风控标准和治理策略。这种跨国界的风险治理模式将极大地提升企业在全球市场中的竞争力,同时也为国际法规的协同发展提供了技术支持。
在风险治理中,人工智能需要解决信赖原则的应用问题。尽管人工智能在预测方面可能优于人类,但仍需董事来做决策,人工智能系统可以帮助信息整理和数据分析,但其产出也主要是用于支持决策,而非替代人类判断。尽管人工智能的精确性在公司治理中至关重要,但必须获得消费者认可并提供足够的社会绩效。在处理信赖问题时应遵循以下思路:首先,需要明确辅助型与咨询型人工智能的区别。辅助型人工智能(如苹果的Siri和谷歌助手)执行记笔记、编排日程、撰写报告等任务。这些系统主要提供支持,无法作出人类决策的核心判断。与之相比,咨询型人工智能则具有更高的自主性和分析能力。它们能够通过分析大量数据,提供预测和建议,从而帮助决策者在面对复杂问题时减少不确定性。其次,需要判断人工智能咨询功能的准确性。咨询型人工智能能够进行智能搜索、信息分类、信息聚类及提供精确建议和预测。这些系统通过处理和分析大量数据,提供决策支持,增强了决策的科学性和准确性。IBM的沃森平台利用其先进的咨询型人工智能技术,在医疗、财富管理和法律尽职调查等领域表现出色。在这种模式下,人工智能不仅能辅助决策,还能在特定业务领域内提供深度分析和建议。再次,人工智能与人类决策的协同方能发挥最佳效果。在人工智能完全接管决策权的情况下(即融合董事会),人工智能系统在决策过程中发挥核心作用,但仍需人类董事的监督。人工智能在决策过程中可以显著提升效率,但依然需人类参与以确保符合法律法规和处理法律风险。例如在自动驾驶汽车的应用中,虽然人工智能系统负责自主驾驶,仍需人类监督确保系统在复杂情境下的可靠性。而在公司治理中,人工智能可以承担自主证券交易和贷款处理等任务,但最终的决策必须由人工干预。
(四)董事的监督与说明义务
人工与智能的有效结合最终还应当落实到董事的义务与责任,这是增强人工智能在公司风控领域可信度的重要手段。换言之,虽然人工智能可以辅助董事履行风险监督职责、协助董事构建更加智能化和动态化的风险管理机制,但同时董事仍应对人工智能系统的风险承担监督义务。在人工智能与人类决策的结合中,关键问题在于法律责任的划分。如果人工智能系统在执行任务中出现错误,导致公司风控疏漏,最终的责任仍然归于人类董事。对于咨询型和自主型人工智能系统,董事会需要明确人工智能输出结果的法律地位以及如何有效地将决策权委托给人工智能。在人工智能应用于公司治理之前,人类通常依靠计算器和电子表格等不具备人工智能功能的技术,这些技术纯粹用于特定任务,缺乏自主性。人工智能被引入公司治理后,传统法律问题需要公司法以新的视角来应对。采用辅助型和补强型人工智能意味着可以用更少的人力实现相同的结果。人力减少可能会导致代理成本结构的变化,但未必降低总的代理成本,因为人工智能系统的基础设置问题将成为新的战略选择,董事和高管必须防止人工智能的滥用。确定监督环节和方式将是人工智能被引入公司治理后的新任务,对信义义务的内涵也应当提出新的要求。在我国公司法所确立的以忠实义务和勤勉义务为二分的董事信义义务体系中,勤勉义务应当成为安放董事监督和说明义务的枢纽。对于人工智能而言,判断董事与公司之间是否存在利益冲突并不困难,算法完全能够通过事先的程序设置排除董事与公司利益冲突的情形,进而避免董事违反忠实义务。但是对于人工智能系统本身的可信性来说,仍然需要依靠董事的勤勉义务对人工智能生成的结果予以核查、确认与落实。
具体而言,如果公司在其风控机制中引入人工智能,董事即使主张免责也必须履行监督与说明义务,这一义务的履行应当贯穿于人工智能系统运行的全流程。在人工智能系统的引入和构建阶段,董事应当事先明确其运行机理和潜在风险,并说明选择人工智能的必要性与合理性,以及明确人工智能系统是否具备监督功能,是否具有持续改进保持适当的监督效果;在人工智能的运行阶段,董事有义务持续关注其日常运行,并针对潜在的突发事件做好应急响应准备和事前预防与事中化解措施;在人工智能系统出现错误时,董事有义务通过停止系统及时响应以尽可能减小损失,同时在事后迅速排查原因和风险,对人工智能系统进行摸排和升级。不可否认的是,人工智能的说明义务面临着局限性与经营判断透明性之间的矛盾。若直接依赖说明义务功能弱化的人工智能判断结果,可能会出现程序不透明的问题。对此,必须通过增加信息披露来确保程序的透明性,董事不能仅以人工智能的风控判断作为经营决策的依据。在人事评价中使用人工智能系统时,如果未对其评价标准和过程进行逐一说明,可能会导致透明度不足。因此,需要对可使用人工智能的事项和不能使用人工智能评价的事项进行分类,即使在使用人工智能的情况下,也需对其过程和结果进行适当说明。这不仅适用于人事评价,也涉及人工智能治理中的透明性问题。“透明性”要求能够弥补决策者与相对人之间形成的“数字鸿沟”,可在一定程度上减小因信息不对称产生的算法和信息垄断问题。在实现人工智能治理的高度化和效率化过程中,必须解决潜在的可解释性与不透明问题,并结合适当的人工干预,确保在程序设计上考虑分担的基础上维持透明度。
04规范化进路推动人工智能赋能公司风险治理
人工智能协同公司风险治理应当遵循规范化进路。一方面,法规为技术发展提供明确的风控框架;另一方面,技术的发展又将反过来推动法规的不断进步和完善。这种技术与规范之间的双向互动是规范化进路的核心逻辑,其能够确保技术创新与社会责任之间的平衡,进而形成人工智能技术赋能公司风险治理的良性循环。作为技术涌现的典型案例,针对人工智能的法律规制手段应当超越以形式法和实质法为核心的传统进路,借鉴吸收反身法的部分特质,通过任意性规范、弹性规范与预见性规范的接口功能、响应功能与引导作用,助力公司风险治理的长远健康发展。
(一)激活任意性规范的接口功能
法律的演进大致可分为形式法、实质法和反身法三个阶段,其中,反身法是指采用控制性的自我监管,以过程导向的形式对社会实践加以规制的法律规范。相较于传统形式法和实质法,反身法的核心特征在于其针对的是更为复杂和多变的外部环境,特别是以新兴科技为代表的“智能涌现”。对于日新月异的社会实践发展状态而言,以“命令—控制”模式为基础的形式法与实质法虽能通过解释论起到填补漏洞的功能,但是一旦社会实践的发展水平随着人工智能技术的发展而不断跃升,此种路径所能达到的效果可能会触及边界,并由此产生“法律滞后”和“回应乏力”的问题。在此语境下,反身法具有不同于传统规制手段的特殊性:其一,反身法更注重通过协同性作用实现各主体之间的去中心化合作,其目的在于更为全面和整体地对外部风险进行信息分享和敏捷响应。其二,反身法更注重以框架性规范为复杂性问题的解决留下接口,以确保在总体风险可控的前提下保持法律规制手段的动态性和灵活性。其三,相较于将实质性内容作为法律规制的核心内容,反身法更注重通过程序性规制为主体的合理行为设置必要指引;同时,此类指引未必采用硬法的规制模式,而经常采用以软法或者软法硬法协同治理为模式的新型规制。反身法在严格意义上并非是某类特定的法律规范,其真正指向的是具备上述灵活性、动态性特征的,且可用于回应“反身性现代化”中涌现的各类社会危机的能动性法律规范。在我国公司法的规范类型上,相较于以“命令—控制”模式为底层逻辑的强制性规范,以缺省性规范和赋权性规范为代表的任意性规范因其更强的灵活性和适应性而呈现出较为鲜明的反身法特征。但受制于路径依赖,我国公司法中对于任意性规范的设计并未完全反映反身法特征,这主要表现为强制性规范的相对强势,以及缺省性规范相对于赋权性规范的明显优势。其背后的逻辑亦不难理解:针对人工智能等新型科技的涌现,强制性规范的约束作用能够确保其威胁可控,而缺省性规范的强大引导则有助于在填补漏洞的同时为人工智能的发展提供明确的路径指向。但存疑的是,这样的规制模式是否真正有助于人工智能赋能公司风险治理实践?
客观而言,强制性规范固然具有约束风险的作用,但其并非针对人工智能应用于公司风险治理的最佳规制选择。首先,不同公司所应用的人工智能系统可能存在显著差异,即使是同一人工智能系统在不同公司的风险治理中也可能存在明显区别。究其原因,是否应用以及如何应用人工智能系统本质上属于公司商业判断的自由,法律规范的僵化规定对于公司而言更多是负担和越界而非保护。其次,人工智能系统的快速发展和应用拓展注定了以强制性规范为代表的传统规制模式无法追赶上风险治理实践的发展速度。即使法律事无巨细地将人工智能系统应用于风险治理的细节进行规定,一旦技术出现更新或者应用场景出现变化,看似全面的规范内容就可能面临“法律失能”的危险。相比之下,更优的路径是,激活任意性规范的接口作用,由各个公司根据自身实际情况决定是否采用人工智能系统、采用何种人工智能系统,以及如何采用人工智能系统。一方面,这一做法能够防止立法过度干预商业自由所导致的僵化和创新压抑问题;另一方面有助于法律保持更新性和能动性,以漏洞填补的方式灵活应对实践中出现的科技进步和变革问题。需要指出的是,本文并不否认强制性规范在人工智能监管,特别是风险防范方面的积极意义。但是在公司治理的语境下,强制性规范应当保持其谦抑性——这意味着强制性规范的恰当应用场景是且只能是,为人工智能应用于公司风险治理设置必要的框架和警戒线,而不宜越俎代庖地为公司经营提供强制建议或法定安排。
而在任意性规范当中,应当进一步强调赋权性规范的自治功能。赋权性规范与缺省性规范的核心区别是,赋权性规范自动选出,非经当事人明确约定无法自动适用;而缺省性规范自动选入,在当事人没有明确约定时起到漏洞填补的功能。我国公司法一直以来强调强制性规范与任意性规范的二分法,却并没有对赋权性规范与缺省性规范之间的区分加以重视。事实上,缺省性规范虽然属于任意性规范,但由于其会产生“规则粘性”,因此对于当事人来说,即使缺省性规范对其并非最优选择,亦可能因为粘性的依赖而适用了缺省性规范。更重要的是,缺省性规范并没有为当事人提供选出的路径,因此如果当事人不愿意适用缺省性规范而希望另行约定,就必须为此花费较高的协商和草拟成本。相比之下,赋权性规范为当事人提供了丰富的选入清单,一方面为其提供了更广泛的选择自由,另一方面降低了其协商与约定的成本。但赋权性规范的缺陷在于有可能出现当事人未选入任何规范而产生判决困难的问题。为进一步提高人工智能应用于公司风险治理的灵活性,规范类型应当从“填空型”的缺省性规范转向“选择型”的赋权性规范,超越对公司风险治理同质化的假设。与此同时,为了缓解缺省性规范与赋权性规范的各自缺陷,一种解决方案是采用规范的组合模式,在设置缺省性规范的基础上,将赋权性规范作为缺省性规范的选出路径,向当事人进行提示。
(二)通过弹性规范实现快速响应
与人工智能技术的高速发展相比,公司治理的合法与合规所依据的法规制定和完善显得滞后。技术与法规的双向互动不仅能够有助于法规保持与技术发展的同步,也能使得法规更加贴合实际的技术应用场景。在无人驾驶汽车领域,原有的交通法规难以涵盖技术的飞速进展所涉及的自动驾驶新问题。通过反馈机制,汽车制造商和技术公司可以将自动驾驶系统在测试中遇到的问题、技术瓶颈以及安全隐患及时反馈给交通监管部门。监管部门则可以基于这些反馈,修订和更新交通法规。对无人驾驶车辆的测试标准、上路条件、责任认定等进行调整和补充。这种动态调整确保了法规始终能够有效地监督和支持新技术的应用。从技术上说,法规可以通过设立附加条款、弹性规定或者定期审查机制,来确保其能够快速响应技术的变化。弹性规范应当嵌入科技伦理的原则性要求,体现技术向善的整体方向。中共中央办公厅、国务院办公厅在2022年发布的《关于加强科技伦理治理的意见》中明确指出,科技伦理包括增进人类福祉、尊重生命权利、坚持公平公正、合理控制风险、保持公开透明这五大原则;并提出了健全科技伦理治理体制、加强科技伦理治理制度保障、加强科技伦理审查和监管、深入开展科技伦理教育和宣传这四项核心方法。这无疑为弹性规制的设置提供了有益的指引。此外,法规的灵活性还可以由一个由技术专家、法律专家和伦理学家组成的跨领域监管机构来实现。不同领域的专家对反馈的信息进行多维度分析,有利于制定出更为合理和可操作的法规政策。在应对人工智能技术中的数据隐私问题时,一个跨领域的监管机构可以综合考虑技术的可行性、用户隐私的保护以及数据的跨境流动等因素,从而制定出更具操作性的法规条款。
弹性规范还要求各国在形成共识与构建框架等方面加强人工智能监管的国际合作。不同国家和地区的法律体系和文化背景各异,法规的制定和执行也因此存在差异。然而,人工智能技术的跨国应用和全球影响力要求法规的引导作用超越国界。通过国际合作,各国可以在技术标准、数据保护、伦理规范等方面达成共识,形成统一的规范框架。这不仅有助于消除跨国企业在风控上的障碍,还能够在全球范围内推动技术的健康发展。欧盟与美国在数据隐私保护方面的合作,以及G20在人工智能伦理标准方面的讨论,都是国际合作的成功事例。通过实时反馈机制、灵活的法规设计和跨部门协作,法规与技术的发展可以实现双向互动、协同演进。例如在区块链技术的应用中,技术开发者通过反馈机制,向监管机构提出了关于去中心化金融(DeFi)的风险挑战。监管机构基于这些反馈,逐步制定了适用于去中心化系统的监管框架,确保区块链技术在符合法律规定的同时健康发展。与此同时,各国的技术开发者、政策制定者、法律专家和社会学家可以共同讨论人工智能技术的发展方向,着力构建整体性的快速响应机制,从而形成既推动技术进步又保障社会安全的共赢局面。
(三)发挥预见性规范的引导作用
除任意性规范和弹性规范外,另一种具有反身法特征的规范类型是预见性规范。所谓预见性规范,是指内容在很大程度上是针对未来可能发生的社会实践变化及其风险的规范。这与面向过去的传统法律规范存在显著区别。一个明显的问题是,预见性规范并不能精准地预测到未来社会实践的发展细节,更不可能预测到究竟会发生何种风险,以及风险会造成怎样的危害。为了克服这一问题,预见性规范在规范内容上通常偏向于程序性而非实质性。其主要机制包括:第一,通过设置框架和原则,为技术发展提供总体思路和方向;第二,通过设置条件和程序,明确在特定风险和事件发生时所应当采取的快速响应措施;第三,通过平衡与协助机制,保持信息来源的广泛和规制力度的恰当,并且实现信息的动态更新和精准调整。例如,人工智能可以实时监控法规的变化,并根据最新的法规进行自动调整、更新完善,确保公司始终遵循最新的风控要求。人工智能还能自动监控法规和政策的变化,确保公司始终遵守最新的风控要求。政府在技术研发的早期阶段介入,通过政策和法规的引导,可以有效确保技术发展路径的规范性和安全性。早期介入不仅有助于发现并解决潜在的风控问题,还可以通过法规的引导,推动技术朝着更符合公共利益的方向发展。
在当前阶段,新兴技术的社会影响尚未完全显现,因此政府需要通过预见性规范来引导技术的发展。由于预见性规范具有反身法的特质,其不仅是对现有问题的反映,更是对未来可能出现的问题的提前应对。《欧盟人工智能法案》明确了对高风险人工智能系统的风控要求,特别是在涉及人类安全、隐私、就业等敏感领域,设定了严格的监管框架;该法案不仅对企业的技术开发提出了要求,还通过明确的风控标准,促使企业在技术创新过程中优先考虑伦理和社会责任。在人工智能技术的开发和应用中,企业往往面临着经济利益与社会责任之间的权衡。政府可以要求企业在追求高度技术化和市场份额的同时,必须承担相应的社会责任。企业应当在数据使用过程中保护用户隐私,防止算法歧视,确保技术的公平性和透明性。预见性规范的引导不仅有助于健全企业的社会形象,也能够促进社会对新技术的接受和信任。而为了保证预见性规范对未来社会实践的预测具有合理性,政府部门一方面应当与相关领域的专家保持密切交流与联系,掌握行业发展的最新动向;另一方面应当深入基层实践,进行全面深刻的社会调查,并在此过程中分析既往社会实践的关键问题、风险和解决路径。
预见性规范的引导作用还体现在对技术创新与风险控制之间平衡的把握上。技术创新往往具有高度的不确定性和潜在的社会影响,法规需要在鼓励创新与防范风险之间找到一个合适的平衡点。过于严苛的法规可能抑制技术创新,而过于宽松的监管则可能导致技术滥用和社会危害。通过制定灵活且具有前瞻性的预见性规范,政府可以在保护公共利益的同时,为企业和研究机构提供一定的创新空间。在以金融监管沙盒和快速响应机制为代表的预见性规范体系中,通过有效的条件与程序设置,为人工智能应用于公司风险治理构筑了一定的容错空间。公司可以在安全范围内进行人工智能应用的开发与创新,即使出现风险事件亦能及时止损并阻止风险扩散。在预见性规范引导技术发展的过程中,公众参与是一个不可忽视的重要环节。通过引入公众意见,法规可以更好地反映社会需求和伦理考量。政府可以通过听证会、公众咨询和民意调查等方式,收集社会各界对人工智能技术发展的意见和建议,从而在法规制定过程中充分考虑公众的利益和关注点。这种参与机制不仅有助于提高法规的透明度和公众信任度,还能促使企业在技术开发中更加注重社会责任。例如,在人脸识别技术的应用中,各国通过公众参与,推动了对技术应用范围的限制,避免了技术滥用引发的隐私侵犯问题。
05结语
将人工智能技术应用于公司风控治理是数字时代公司治理的新兴发展趋势。人工智能的技术优势可以有效赋能公司风险治理向新向优,其主要表现在公司风险审查的效率性、公司风险监测的集成性、风险信息更新的及时性、智能风险预警的准确性这四个方面。然而,目前人工智能系统并不具有主体性和责任承担资格,其在公司风险治理中的恰当定位仍然是辅助者而非主导者,为此应当通过合适的治理手段保证人工智能系统的可控可信,确保其最大程度上发挥技术赋能的潜力。为实现这一目的,应当兼采技术性手段和规范性手段:一方面,应当通过技术进步不断提高人工智能系统的适应性与合规性;另一方面,应当实现人工与智能的有效结合,并利用义务与责任规范,将董事对人工智能系统的监督和说明义务纳入董事信义义务的范畴。由于人工智能系统相较于传统公司风险治理更具复杂性和灵活性,因此以形式法和实质法为逻辑的传统规制思路可能面临梗阻。在此意义上,应当探索一种以反身法为依托的规范性进路,通过动态灵活的规制模式,回应人工智能技术的最新发展和业态涌现。首先,应当在强制性规范设定监管边界的基础上,激活任意性规范的接口功能,采用赋权性规范与缺省性规范的组合模式以为公司风险治理提供灵活选择;其次,应当通过弹性规范实现风险治理的快速响应,并在此过程中促成各国在共识与框架等方面加强人工智能监管的国际合作;再次,应当发挥预见性规范的引导作用,通过条件程序设置和快速响应机制,在鼓励创新与防范风险之间找到合适的平衡点,并通过专家咨询与公众参与等信息互动方式,确保预见性规范内容的前瞻性与合理性。
END
4000520066 欢迎批评指正
All Rights Reserved 新浪公司 版权所有