人工智能模型的局限性探讨——以金融行业为例

人工智能模型的局限性探讨——以金融行业为例
2023年08月29日 14:10 银行家杂志

金融科技的应用旨在利用先进的科技手段,推动金融服务的创新与变革,从而使得金融服务能够更加便捷、普惠、高效且安全。金融科技的发展历程与信息技术息息相关:19世纪,电报和电话的发明加速了金融信息的传递速度,使得金融市场能更快地响应各种信息;到了20世纪,计算机的发展为金融科技提供了强有力的技术支持,将金融科技推向新的时代(X L ZHENG,M Y ZHU,Q B LI. et al.,2019);进入21世纪,随着互联网及大数据、云计算、人工智能等技术的出现,金融与科技的深度融合正推动着全球经济向智能化转型。

正是在这个背景下,人工智能和金融科技的潜力得到了更多的关注。通过机器学习和深度学习等方法,人工智能模型能够处理和分析大量复杂的金融数据,协助金融机构进行快速准确地分析和决策,从而提高金融服务的效率和质量。随着人工智能技术日渐成熟,许多金融机构如商业银行、投资银行、保险公司、私募基金等开始尝试将人工智能应用在资产管理、自动交易、金融客服、欺诈监测等方面并且取得显著的成果。然而,在亮丽的外表下,人工智能在金融领域的应用仍然存在一些限制和挑战。党的二十大报告指出,防范金融风险还须解决许多重大问题。其中,包括数据安全性、模型的透明度及解释性等问题。在当今这个金融市场中,如何应对这些挑战,使得金融科技和人工智能的应用更加安全、有效,将是一个重要的议题。

本文将从三个主要方面深入探讨这个议题:第一,介绍人工智能模型的特性及这些特性对于金融行业的影响;第二,分析人工智能应用在当前金融领域存在的问题和风险;第三,讨论人工智能在金融领域存在的问题的潜在解决方案以及未来发展前景。笔者希望,通过深入研究并提出解决方案,能够推动中国乃至全球的金融科技和人工智能不断向前发展。

阻碍人工智能技术

在金融领域广泛应用的因素

数据

成功的人工智能模型离不开数据的支持。以近期流行的大语言模型(Large Language Model)为例,Bard的LaMDA模型使用137B个参数进行训练,OpenAI公司的GPT3.5模型使用175B个参数进行训练,而目前效果最好的GPT4则使用多达1T个参数作为训练数据 (S SOMAN,H G RANJANNI,2023)。由此可见,用于训练的数据的质量、数量和多样性直接影响模型的性能。目前,主流的AI模型均为通过训练数据进行预测,良好的训练数据可以帮助人工智能模型得到更准确的效果(B LI,P QI,B LIU,2022)。因此,数据作为人工智能模型的基础,具有不可替代的作用。

挑战1:金融数据特有的性质会阻碍人工智能模型实现效益最大化。第一,金融数据的巨大规模和复杂性使得数据预处理阶段变得尤为困难,如数据类别的差异性大,权益资产、固定收益资产、不动产、另类资产等各类资产的数据特性差异显著。这使得适应各类数据特性的人工智能模型预处理变得更为复杂。第二,金融领域的相关数据通常源自多个渠道,包括中央银行、证券交易所、投资银行等。尽管这些数据都属于同一类别,但由于每个机构统计的天数、选取的样本数量等可能存在差异,导致同类数据间也有微小的差异。这种微小的差异可能会对AI模型的预测结果产生重大影响。第三,数据的隐私性和安全性也是金融机构需要重点考虑的问题。一项研究表明,62%的银行家对大数据的使用持谨慎态度(B FANG,P ZHANG,2016)。部分私人金融机构可能出于保护商业竞争力和客户隐私的需要,不愿公开或分享数据。而这无疑增加了人工智能模型在金融领域的数据收集和分析的难度。第四,人工智能模型通常需要大量数据进行训练,然而,对于一些短期内收益起伏较大的金融机构,如私募基金,其数据的稳定性不足,贸然使用这类数据可能会产生极端值。这些极端值可能会对人工智能模型的训练和结果造成影响。第五,金融行业数据的即时性也是限制人工智能模型广泛应用的因素之一。对于实时更新的金融数据流,人工智能模型需要在短时间内处理大量的数据,这对模型的计算能力和处理速度提出极高的要求,所需的计算资源也会为企业带来巨大的成本。第六,金融市场的波动性会导致数据常常伴随着噪声和异常值,这会干扰人工智能模型的学习和预测,从而影响模型的准确性和稳定性。

过拟合问题

过拟合(Overfitting)是机器学习和统计模型中的一个现象,其体现为模型在处理训练数据或历史数据时表现优异,然而在应对测试数据或未知数据时则表现欠佳,因此难以有效处理新的数据并进行准确预测。具体来说,模型在训练过程中开始“记忆”一些无意义的噪音和异常值,而不是从训练数据中学习潜在规律。产生过拟合的原因包括模型复杂度过高、数据量过小、数据噪声幅度大,以及训练迭代次数过多等。Fernando和Rafael指出,“鉴于历史数据的相对稀缺性和金融序列不断变化的性质,将深度学习技术应用到金融数据时,过度拟合是不可避免的现象” (F D M PARDO ,R C LOPEZ,2020)。

挑战2:过拟合现象会影响人工智能模型在金融行业的预测准确性。金融市场的变化实质上是对现实世界的真实事件作出的反应,这导致了金融市场具有较高的随机性,因此金融数据往往含有噪声、非线性数据,以及许多隐藏的、影响市场行为的因素。这意味人工智能模型在处理金融数据时不可避免会遇到过拟合现象。David和Marcos在研究中指出,基于人工智能得出的“最优”金融投资策略通常在统计学角度表现优异,但在现实中却是海市蜃楼(D H. BAILEY ,M L D PRADO,2011)。具体来说,金融市场表现出的是金融产品的实际价值与投资者预期的结合,这意味着当现实世界受到突发事件的影响时,投资者的行为与金融产品的表现会使得金融市场频繁受到冲击。人工智能模型的预测结果也会相应地受到影响。此外,由于金融市场的随机性,模型可能会在不断地训练中过度适应历史数据中的噪声,从而无法有效预测未来的趋势,以至于造成人工智能模型预测结果偏差较大。

人工智能模型的偏见和公平性

当前,普遍使用的人工智能模型的决策依据主要来源于训练数据,尽管常规意义上的人工智能模型是客观的,但模型训练所使用的数据存在一定的偏见性,例如性别、年龄、收入等方面的偏差。人工智能模型在训练过程中可能会无法判断,甚至会学习和复制这种偏差,从而导致其预测结果受到影响。主观偏差会造成人工智能模型中一类常见的问题,即算法偏见。算法偏见(Algorithmic Bias)是指人工智能模型在预测、决策过程中表现出对某一类群体或特定结果的不公正倾向。这种倾向通常源自模型训练数据的不平衡或者特征选择的问题。

挑战3:算法偏见会造成多方位的社会问题。当人工智能模型应用在金融系统时,算法偏见可能会引起一系列问题。首先,算法偏见会导致某些群体在使用金融服务时受到歧视。其次,人工智能模型的决策结果存在偏见会造成预测结果异常,不仅会对企业造成一定量的亏损,还有可能导致其品牌形象和社会信誉受损。人工智能模型中的算法偏见并非刻意为之,但其结果可能导致一些严重的社会问题,尤其是在对模型准确度要求更高的金融领域。算法偏见会从四个方面对金融行业造成影响。第一,信贷评估:在使用人工智能模型进行信贷评估时,如果训练数据中存在偏见,例如,对特定人群(如某一种族、性别或年龄段)的过度代表或欠代表,可能导致算法在评估信贷风险时产生偏见。例如,如果历史数据显示某一种族或性别的违约率较高,算法可能会对此类人群进行不公平的高风险评估。第二,投资策略:在使用算法制定投资策略时,如果训练数据主要基于某个特定的市场阶段(如牛市或熊市),可能导致算法在面对不同的市场环境时表现出偏差。例如,如果算法主要在牛市环境下进行训练,它可能在熊市环境下表现不佳。第三,高频交易:高频交易(HFT)使用复杂的算法在极短的时间内进行大量交易,以获得微小的价格差异带来的利润。然而,这些算法可能对市场产生不利影响,如加剧市场波动、引发“闪电崩盘”等。这种情况下的偏差更多的是对市场整体的影响,而不仅仅是对单个个体。第四,保险定价:在使用算法对保险产品进行定价时,如果算法过度关注个别因素(如年龄、性别或健康状况),可能导致对某些人群的不公平定价。例如,如果算法在健康保险定价时过度依赖年龄因素,可能导致年长者的保费过高。由此可见,人工智能模型造成的算法偏见可能造成的潜在风险是每个金融从业者在使用人工智能技术时都不得不考虑的问题。

人工智能模型的透明度

人工智能模型,尤其是深度学习模型,通常由数百万甚至数亿个参数组成,这些参数在模型训练过程中进行复杂的数学运算,形成难以理解的决策逻辑。由于其内部工作原理很难被观察到,这些模型通常被视为“黑箱”(Black Box)。

“黑箱”产生的原因有以下两点:一是一些复杂的模型,例如深度神经网络,包含大量的隐藏层和参数,导致模型的决策过程十分复杂且难以直观的分析和理解。二是许多模型需要处理大量高维数据,例如卷积神经网络(Convolutional Neural Network)或循环神经网络(Recurrent Neural Network),数据的复杂性也会导致模型决策过程的透明度降低。

挑战4:人工智能模型的不透明性会为金融行业带来监管问题。“黑箱”这一特征导致人工智能模型缺乏透明度,从而使监管机构、利益相关者、客户对人工智能的决策产生质疑。在金融领域,透明度被认为是非常重要的一个因素。监管机构维持金融市场稳定的重要步骤之一是了解金融市场的运作过程,然而,人工智能模型决策的不透明性与之背道而驰,在一些情况下甚至会违反某些金融法规。例如,欧洲的通用数据保护条例(GDPR)中要求企业能够解释对个人产生明显影响的决策的人工智能系统,尽管GDPR并不要求企业透露全部的算法,但是由于“黑箱”模型的存在,如何解释算法决策过程可能会无法满足GDPR的要求(张涛,2019)。除此之外,投资者可能会因为模型的不透明度对人工智能模型与金融机构产生信任危机,会避免将所有资产与个人名誉置于危墙之下,企业利益和信誉也会随之受损。由于无法理解“黑箱”模型内部的运算过程,使用者和监管者也无法对“黑箱”模型进行有效的风险管理。以工具为例,用户使用工具时不仅需要了解工具的使用方法,还需要知道工具的注意事项,这样才能保证达成目的的同时也不会危害到人身安全。对于应用于金融领域的人工智能模型,低透明度意味着有相对较低的风险管控能力,同时也会一定程度上使人工智能模型游离于监管之外。

金融市场的外部性因素

对人工智能模型及其应用的影响

黑天鹅事件

黑天鹅事件(Black Swan Event)指那些极端但又具有深远影响的罕见事件,这类事件的特点是预测困难且影响巨大(N N TALEB,2007)。黑天鹅事件在金融市场中用于形容那些无法预料且对市场有巨大打击的突发事件。

挑战5:人工智能模型无法很好地应对黑天鹅事件及其带来的影响。一般来说,造成黑天鹅事件的原因包括三个方面:一是市场的不完全理性,虽然金融市场在大部分时候是理性的,但是市场参与者的非理性行为,例如恐慌性买卖有可能会引发黑天鹅事件;二是复杂的经济系统互动,在当前经济全球化的背景下,各个市场和金融产品之间的相互影响和联系使得金融体系变得越来越复杂,可能会导致黑天鹅事件;三是政策因素,不可预测的政策变化常常是引发金融市场变动的黑天鹅事件,例如货币政策转向等。于2022年初开始的俄乌冲突可被视为一种黑天鹅事件。首先,冲突导致俄罗斯和乌克兰地区的实体经济受到严重打击。基础设施遭到破坏,工厂停产,供应链中断,这些都直接影响了生产和贸易。进而,这种影响会扩散到全球范围,尤其是对那些与这两个国家有密切经济联系的国家。其次,冲突还会引发能源价格的剧烈波动,特别是俄罗斯作为全球主要的石油和天然气供应国,冲突可能导致能源供应中断,进而推高全球石油和天然气价格,影响全球经济的稳定。再者,冲突引发的政治和经济不确定性会导致全球金融市场的剧烈波动。在冲突爆发的消息公布后,投资者可能会出于风险规避的心理大规模抛售股票和其他风险资产,导致股市暴跌。同时,投资者可能会转向黄金、美元等被视为“避风港”的资产,推高这些资产的价格。俄乌冲突这类黑天鹅事件会对全球金融市场造成巨大的影响,然而,对于人工智能模型来说,这类突发性事件是很难预测的。并且其引起的一系列经济金融波动也会造成人工智能模型对事件发生之后的金融市场的分析出现误差。

由此可见,黑天鹅事件是人工智能模型在金融领域广泛应用的重要阻碍之一。黑天鹅事件的预测难度很大,人工智能模型对于此类事件的预测能力表现得并不令人满意,且事件发生后人工智能模型的预测准确度会有一定下降。人工智能模型的预测失准会导致金融机构和投资者做出错误的商业决策,造成无可估量的经济损失。此外,黑天鹅事件发生后,模型将不得不进行大规模参数调整,这会为模型优化带来困难和潜在风险。

金融市场的就业问题

挑战6:人工智能模型的广泛应用可能会造成金融市场的就业问题。随着人工智能技术的日益发展和成熟,其在金融领域的应用也逐步扩大。然而,这种发展趋势在某种程度上导致了金融市场就业状况的波动,因为一些工作职能会逐步被人工智能技术所取代。“以史为鉴,可以知兴替”,回顾历史,我们可以看到这并非首次出现技术替代人力的现象。在工业革命的初期,许多曾经依赖人力完成的工作,如纺织缝纫等,被“劳动力替代型技术”所取代,从而导致大量工人失业。这种现象造成工人的收入水平下降,资本家的利润上升,对整体经济发展产生了深远影响,被经济史学家罗伯特·艾伦称为“恩格斯停滞”(C B FREY,2019)。不仅如此,据弗雷和奥斯本在2013年的研究预测,未来20年,美国有47%的工作面临被技术取代的风险(C B FREY,M A OSBORNE,2013)。在金融业中,一些可以通过自动化程序完成的任务,如数据处理、审计以及某些类型的客户服务,很可能在未来被人工智能技术取代。然而,这种劳动力被技术替代的趋势在短期内可能导致社会稳定性受到冲击。因为随着一些工作岗位的消失,一些员工可能会发现他们的技能不能再满足市场的需求。这可能会带来一系列社会问题,如就业安全感的缺失和收入的不均等,进而导致社会不满情绪的上升。尽管人工智能的发展和应用带来了效率的提升和成本的降低,但其对金融行业劳动力的影响也不容忽视。如何在新技术带来的变革中,保持社会稳定和公平,是我们面临的重大挑战。

人工智能在金融市场的安全性

挑战7:人工智能模型存在安全隐患。安全,作为互联网时代的关键核心之一,是每项科技进步必须优先关注和考虑的问题。安全的重要性在金融领域更加引人注目,因此,人工智能模型可能带来的风险亦成为一个迫切需要解决的问题。人工智能算法在金融领域主要有以下三方面的问题:第一,数据安全问题。人工智能模型在金融领域的应用通常需要处理大量的个人和企业数据。这些数据可能包括敏感信息,如个人身份信息、银行账户信息、信贷历史等。如果这些数据的保护措施不足,可能会导致数据泄露,对个人或者企业造成严重损失。第二,模型稳健性问题。模型稳健性是指模型在面对输入数据的微小变化时,其预测结果是否能够保持稳定的性质。如果一个模型的稳健性不足,可能会导致其在金融决策中的表现不稳定,甚至可能出现严重的错误。例如,如果一个模型对价格波动的预测在面对微小的市场变化时出现大幅波动,那么这个模型在实际应用中可能会导致严重的金融损失。第三,恶意攻击问题。随着人工智能模型在金融领域的应用越来越广泛,它们也成了攻击者的目标。恶意攻击者可能会尝试篡改模型的输入数据,以欺骗模型做出错误的预测。这种攻击方式被称为对抗性攻击。例如,攻击者可能会通过篡改他们的信贷申请数据,欺骗信贷审批模型批准他们的贷款金额。

在金融领域,人工智能模型的安全性是一项至关重要的议题,须被认真对待并谨慎管理。随着人工智能的不断演进以及其在金融业务中的日益广泛应用,确保这些系统的安全性成为对抗潜在破坏以及维系公众对金融机构信任度的关键所在。

金融市场的平衡性

挑战8:人工智能模型大规模应用可能会打破金融市场的平衡。在中国,政府的干预对于经济高质量发展有不可或缺的作用(王桂梅,赵喜仓,罗雨森,2020)。然而,人工智能模型在金融领域的大规模应用可能会对政府干预造成一定的影响,主要表现在监管难度增加、缺少人为干预的问题,以及可能打破资源分配平衡,导致财富两极化。首先,如前所述,人工智能模型的复杂性和不透明性会增加监管的难度。政府需要确保金融市场的公平、透明和稳定,而这需要对市场行为有清晰和深入的理解。人工智能模型的决策过程通常基于复杂的算法和大量的数据,这使得其决策过程往往难以理解和审查,进而会对政府的监管能力提出挑战。其次,尽管人工智能模型在某些工作上的效率和精确性超过人类,但它缺乏理解和执行人为干预的能力。这是因为人为干预通常涉及对复杂的社会和经济问题的理解,需要在各种利益之间进行权衡,这超出了人工智能模型目前的能力范围。并且金融市场的稳定性需要人为监管来维护,而人工智能模型的大规模使用会为监管增加难度。最后,人工智能模型的大规模应用可能会打破资源分配的平衡,导致财富的两极化。因为人工智能模型的开发和应用需要投入大量的资源,这使得拥有这些资源的公司会获得更强的竞争力,并且会使其在金融博弈中占据优势地位且有可能造成财富分配不均、市场垄断等经济问题。

例如,通过LSTM股价预测模型的预测结果和对股票市场具体分析的结果可以看出,尽管LSTM对于价格长期稳定的股票具有相对较高的预测准确率,但其无法准确预测短时间大幅涨跌的股票。这也证明了人工智能模型无法准确预测复杂的金融市场以及对金融市场有影响的事件。此外,在使用人工智能模型时选取的数据集也会对结果产生较大影响。

关于人工智能模型

在金融领域应用的建议

尽管当前的大部分人工智能技术在金融领域的应用都存在一些问题,但人工智能依然是一项值得深入探索的技术。针对本文中讨论的问题,笔者从以下三方面出发,对于人工智能模型在金融领域的应用提出建议。

政府

在人工智能技术井喷式发展的当前,政府和有关部门应出台更多相关的政策和法规来保证人工智能模型的使用走在正确的道路上。金融领域对数据的处理、信息的透明度及业务的公平性等都有严格的要求,而这些都是人工智能模型在使用过程中需要关注的问题。法规和政策在很大程度上决定了金融机构如何、在何种范围内使用这项技术,也影响了人工智能模型在金融领域的创新和发展。因此,建立明智的法规和政策,以及与之相适应的实践,对于推动人工智能模型在金融领域的成功应用至关重要(吴汉东,2017)。

政府和有关部门应考虑以下几方面:第一,数据保护与隐私政策,规定如何收集、存储、处理和共享个人和机构的金融数据,确保数据的安全性和隐私;第二,算法透明度和可解释性政策,对于金融机构使用的人工智能算法,需要有规定要求其能够解释其决策过程和结果,增强算法的可信度和公正性;第三,算法公平性和无歧视政策,金融机构在使用人工智能进行决策时,应遵循公平性和无歧视原则,避免算法偏见带来的不公正;第四,风险管理政策,需要有针对使用人工智能的金融机构的特殊风险管理规定,包括数据泄露、算法误判、系统故障等风险;第五,人工智能责任和监管政策,明确人工智能在金融交易和决策中的责任,建立相应的监管机制,确保人工智能的合规使用;第六,人工智能教育和培训政策,推动在金融机构内部进行人工智能教育和培训,提高员工的AI素养,确保他们能理解和正确使用人工智能。

人工智能的相关政策需要政府、金融机构、人工智能企业以及公众共同参与和建设,从而为人工智能在金融领域的应用和发展创造健康的环境。

金融企业

在金融科技不断创新的潮流中,金融企业如何理解和使用人工智能技术,是决定其在金融市场竞争中取得优势地位的关键之一。针对前文提到的挑战,笔者提出以下建议。

金融企业应保证数据和信息安全。金融领域的数据安全由于涉及个人财产、公司信誉、商业机密等高敏感度的因素,显得格外重要。第一,加强数据加密,对存储和传输的数据进行加密,是保护数据安全的最基本方式,可以防止未经授权的人员访问和使用数据,同时应使用最新和最安全的加密技术,并定期更新加密算法和密钥。第二,使用安全的数据存储和处理设施,确保使用的云服务或物理数据中心具有高级别的安全保护措施。数据中心应该有严格的物理安全措施,以及高级的网络安全措施,例如防火墙和入侵检测系统。第三,实施强大的访问控制,制定严格的访问控制政策,只有经过授权的人员才能访问和处理数据。这包括使用强大的身份验证方法,例如多因素身份验证。第四,数据脱敏和匿名化,在不影响数据质量和AI算法性能的前提下,对敏感数据进行脱敏和匿名化。这可以减少如果数据被泄露所带来的风险。第五,建立有效的数据泄露应急响应机制,即使有最好的安全措施,数据泄露的风险仍然存在。因此,应制定数据泄露应急响应计划,一旦发生数据泄露,可以迅速采取行动,最大程度地减少损害。第六,培训员工和用户,员工和用户的行为是数据安全的重要组成部分。应定期为员工和用户提供数据安全培训,帮助他们了解如何保护数据,避免高风险行为。第七,金融公司须合理地结合人工智能和人类智能,例如加强员工的培训和教育,使他们能够理解人工智能技术,知道如何与人工智能系统协作,以及如何利用人工智能来做出更好的决策。此外,要重新考虑和设计职位,将一些职位的重点从执行任务转向管理和监督人工智能,或者从处理数据转向解释和利用数据。

金融企业在使用人工智能技术时应合理选取模型。随着时代的进步和科技的发展,越来越多的人工智能模型在金融领域投入使用。从简单的线性回归到相对复杂的神经网络,人工智能模型通过不断更新,可以发挥多样化的作用。金融研究人员和金融分析师应该了解特定模型在特定金融领域的可行性(J HUANG,J CHAI,S CHO,2020)。合理的选择人工智能模型可以提高工作效率,在人工智能模型的帮助下将复杂问题简单化,实现多元化的目标。在选择模型的时候,企业和从业者应该考虑以下几方面:第一,模型性能,选取相对成熟、稳定的模型。并且使用交叉验证(Cross Validation)、生成式对抗网络(Generative Adversarial Networks)、正则化(Regularization)技术等方法评估模型在未知数据上的性能,从而尽可能消除过拟合等问题对模型的影响。第二,符合业务需求,选择的模型应与具体的业务问题紧密相关。使用者需要清楚地定义希望人工智能模型解决的问题适合何种模型,例如,自然语言处理(Natural Language Process)适合情感分析(Sentiment Analysis)、文本挖掘(Text Mining);深度学习适合创建市场模型、创建交易模型、风险分析、价格走势预测等,信贷风险评估、欺诈检测、市场走势预测等;强化学习(Reinforcement Learning)适合优化投资组合和投资行为、优化交易策略等(L CAO,2022)。第三,解释性,在金融领域,模型的解释性非常重要。一个好的金融AI模型应该不仅能做出准确的预测,还能清楚地解释其决策过程。因此,可能需要优先考虑具有高解释性的模型,如决策树、逻辑回归等。此外,随着人工智能技术的发展,可解释性人工智能XAI(Explainable Artificial Intelligence)的使用可以很大程度上解决人工智能模型不透明性的问题(D GUNNING,J CHOI, T MILLER. et al,2019)。第四,数据兼容性,由于金融数据的来源差异性很强,所选模型应与使用的数据兼容。例如,某些模型可能需要大量的数据才能工作良好,而其他模型可能更适合处理稀疏或非结构化的数据。第五,法规遵从性,模型的选择需要符合金融监管法规。例如,某些地区的法规可能要求金融机构能够解释其信贷决策的原因,在这种情况下公司应选择透明度较高的人工智能模型。第六,技术实现,模型的选择应考虑到技术实现的可行性。一些复杂的人工智能模型需要高性能的硬件、庞大的数据库、高水平技术人员的支持。公司需要考虑相关的硬件设施以及技术人员的技能是否匹配,以及投入产出比是否值得使用人工智能模型等问题。

社会

金融是社会的重要组成部分,其在促进经济增长、创新和社会福利方面起着关键作用,人工智能模型在金融领域的应用应基于维护社会稳定的前提。

在使用人工智能模型时应注重人工与智能相结合。具体来说,人类和机器在不同的任务上各有优势,机器擅长处理大量数据、执行复杂计算和自动化流程;而人类在解决需要深度理解、创新思考和情绪智能的问题上有优势。因此,应该让人和机器各司其职、协同合作,发挥各自的优势。人工智能的出现和发展不会取代人类,但是会取代一些工作。就像第一次工业革命之后,工厂需要更多懂得如何操作机器的劳动力;第二次工业革命之后,社会和企业需要一系列新职位如工程师、机械师、维修工等(许怡,2022)。企业、政府和社会有必要通过适当的保障措施来缓解过渡期的困难,以及通过劳动市场政策来鼓励新的就业机会的创造。对于金融行业来说,只有合理地将人力资源与人工智能技术相结合,才能在保证市场稳定的情况下使这项技术在金融领域更好地发挥其作用。

在使用人工智能模型时应执行完整的风险管理流程。金融机构和企业在使用人工智能技术的时候需要进行风险评估与风险控制,从而在保证安全的情况下实现人工智能的价值,并且降低人工智能模型对社会稳定性的影响。企业和政府应定期进行全面的风险评估,识别和量化使用人工智能可能带来的各种风险,包括数据隐私和安全风险、技术风险、合规风险、业务连续性风险等。不仅如此,在使用人工智能算法的时候应进行算法审核,保证其性能、可靠性和公平性。金融机构和政府应建立实时监控和报告系统,以便快速发现和解决任何潜在的问题。包括对模型性能的监控、对异常交易或行为的监控,以及对任何可能的数据泄露或安全威胁的监控。此外,金融从业者和管理者应制定适合自身情况的风险管理制度和框架,从而最大程度降低使用人工智能带来的不确定性(NIST,2023)。总的来说,风险管理是人工智能在金融市场广泛应用的关键部分,需要在战略规划、实施和运营的每个阶段都予以充分的考虑。只有通过有效的风险管理,金融机构才能充分利用人工智能,同时避免或最小化可能的负面影响。

关于人工智能模型在金融领域应用的未来展望

在人工智能技术发展的过程中,数据、算法和算力被视为三大核心要素,人工智能模型在金融领域的未来也将受到这三大核心要素的影响。

数据作为人工智能模型的“知识原料”,在金融领域发挥着巨大的作用。随着大数据技术的不断发展,人工智能模型使用的数据将不再局限于传统数据集。更多的非结构化数据(如文本、社交媒体信息、新闻事件、消费者行为等)作为理解金融市场动态的重要信息资源,将被有效地应用于金融领域的人工智能模型中。因此,对于金融机构来说,确保数据质量和安全性十分重要。因为优质安全的数据资源不仅可以提高模型的预测准确性,还有助于有效防范风险,对金融行业的稳健运行起到了关键性的作用。例如可以用到反量子加密技术,这也将避免再次出现类似于“千年虫”的问题。就如 Jonathan在文中提到的一样,伴随着量子时代曙光而来的安全和加密转变将成为最不起眼的问题(乔纳森·鲁安,2022)。

科技进步将带来更多可能性。随着科技的进步,越来越多新的算法不断涌现,例如深度学习、强化学习等,将为人工智能模型在金融领域的应用带来更多的可能性。深度学习技术可以通过模仿人脑神经网络来理解和学习复杂的金融模型,从而实现更精准的预测。而强化学习则可以通过不断与环境互动和学习,达到优化决策的目的,这对于金融机构在不确定环境下的决策有着重要价值。可以预见的是,未来的金融人工智能模型算法具有向多样性、自动化、透明性以及个性化发展的趋势。多样化指未来的模型会具有更多的功能,正如在过去的几十年中人工智能算法从决策树到神经网络再到大语言模型的发展历程,未来的算法将有能力实现更多、更复杂的功能。自动化指未来的模型会具备自我学习、自我优化的能力。具体来说,金融领域的人工智能模型将具备自我检查、主动学习、自动优化等能力。透明性指金融领域的人工智能算法会具有较高的可理解性。如前文所述,金融行业的人工智能模型有必要被政府和企业所理解,而具有高透明度的算法,例如,XAI等会成为未来的发展方向之一。个性化指根据使用者的需求定制具有独特能力的算法,例如金融领域的量化交易算法或金融类大语言模型等。算法的进步伴随着人工智能模型替代人工劳动力的过程,未来的金融算法将有能力完成现在的高端人力资源所做的工作。

算力是推动人工智能发展的关键驱动力。随着计算能力的提升和云计算技术等的发展,人工智能模型将具备处理更大规模的数据的能力,例如量子计算、边缘计算和类脑计算。量子计算通过量子力学效应增强计算能力,可以为处理大量数据或者一些突发事件提供策略优化。在2021年5月,一家量子计算公司Zapata Computing宣布了与西班牙对外银行 (BBVA)共同进行的研究结果,该研究旨在调查量子系统在创建信用估值调整 (Credit Valuation Adjustment, CVA)——为尽量减少系统性金融风险而实施的一项监管要求方面的实际应用(Jonathan,2022)。一些大型金融机构正在逐步认识到,量子计算在未来具有深远且广阔的发展前景及潜在影响力,例如高盛(Goldman Sachs)与摩根大通(J.P.Morgan Chase)等机构的团队正积极探索量子计算在金融领域中的优化效应,并对其在人工智能模型中的潜在应用可能性进行深入研究。边缘计算作为云计算的一种补充,进一步推动了微型机器学习(TinyML)发展。这一类新技术的出现,帮助人工智能模型以更高的速度进行计算,这对于金融市场的实时决策具有极大的帮助。更重要的是,高效的计算能力也为模型的实时更新和优化提供了可能,使得模型能够更好地适应金融市场的快速变化。

随着数据技术、算法和算力的不断进步,人工智能模型在金融领域将会有更广阔的未来。我们可以预见未来的金融市场将会因为更高效的数据处理,更加精确的预测模型以及更强的计算能力而变得更加智能化。因此,我们有理由期待人工智能模型为金融领域带来的无限可能,帮助金融机构更好地适应市场的快速变化。

结语

尽管人工智能在金融领域的应用道阻且长,但是其在数据处理、风险预测、决策支持等方面独特的优势,让我们对人工智能在金融领域的未来充满期待。我们深入探索和研究这些挑战和限制,目的不仅在于指出人工智能的缺陷,更是为了通过这样的探究找到解决问题的途径,进而更好地发挥人工智能在金融领域的潜力和价值。

在严格的监督和科学指导下,我们期待着人工智能能够帮助金融业提升效率,降低风险,并推动其持续、健康、稳定地发展。在金融领域内,人工智能不仅有可能对现有的金融产品和服务进行创新,还有可能开创全新的金融模式。因此,我们需要继续研究和解决那些挡在人工智能模型应用道路上的难题,为今后实现这一具有深远影响的转型做准备。

作者:郭俊逸 陆昊铖 吴仕琦 陈嘉健,单位:约翰霍普金斯大学,北京大学,香港大学

财经自媒体联盟更多自媒体作者

新浪首页 语音播报 相关新闻 返回顶部