风险分析
金融服务公司长期以来一直使用统计模型来评估风险——贷款中的信用风险、交易中的金融风险、保险部门的精算风险以及所有类别的欺诈风险。
BITS银行政策研究所技术政策部门的总裁Chris Feeney说,“如今不同的是,这些算法的使用更加广泛,可用数据量、数据类型和数据吞吐量正在改变正在解决的各种问题,如果可以收集更多有关交易的信息,可以更好地避免欺诈。”
Feeney希望人工智能成为金融公司的一个重要差异化因素。他说,“金融公司必须积极参与,但必须选择自己的用例。”他建议企业寻找机会利用人工智能创造竞争优势,同时也为消费者提供明确的价值。
他说,“这可能是贷款业务。现在有很多关于使用其他数据源向新的人群提供贷款产品的活动。”
他说,欺诈分析是另一个重要的用例。他说,“我认为人工智能将加快发现欺诈行为的能力,以避免欺诈,更快地发现异常活动。”
Raghav Nyapati最近在全球十大银行实施人工智能项目,现在正在创建一家金融技术初创企业。他说,“人们将会采用成千上万的应用程序。人工智能可以帮助过滤掉可能存在欺诈或高风险的应用程序,只有经过筛选的应用程序才会被代理审核。”
他解释说,“这些决定需要得到人类判断的支持。我们必须提供负责任的人工智能。我们需要利益相关者回答,客户要回答。如果出现任何问题,银行必须支付巨额罚金。”
调研机构Gartner公司最近的一项调查显示,46%的金融服务公司使用人工智能进行欺诈检测。
Tabb Group金融科技和欧洲研究主管Monica Summerville表示,在证券行业,很多公司在交易前和交易后风险分析中使用机器学习。
“以传统方式进行风险分析非常耗费计算量,而且很多机器学习技术虽然近似,但需要足够好,而且速度也越来越快。”她说。
在Tabb Group公司最近进行的一项调查中,大多数证券公司计划在未来12个月扩大对人工智能的支出。她说:“人工智能被列为他们业务中最具颠覆性的技术。”
Gartner公司指出,人工智能还将影响更复杂的任务,如财务合同审查或交易发起。该公司预测,到2020年,20%的后台工作人员将依赖人工智能开展非常规工作。
合规性挑战
监管机构已经熟悉监督金融机构用于评估信用风险或发现可疑行为的模型的困难。例如,模型可能非常复杂,难以分析。或者它们可能是来自第三方供应商的专有模型。
有很多方法可以解决这些问题,例如对模型进行独立审查以及使用补偿控制。在某些方面,人工智能驱动的系统可以像传统的统计模型一样对待,但它们也带来了额外的担忧。
美联储委员会成员LaelBrainard在去年的一次演讲中说,“就其本身而言,人工智能可能在不透明性和可解释性方面带来一些挑战。认识到在使用人工智能工具时可能存在一些有利的情况,即使它可能是无法解释或不透明的,人工智能工具也应受到适当的控制。”
她说,这包括有关如何构建工具,如何在实践中使用以及围绕数据质量和适用性的控制。
可解释性(也被称为黑盒问题)是人工智能系统的一个特殊问题。使用传统的统计模型,数据科学家选择对特定决策或预测至关重要的因素,并决定对这些因素给予多少权重。然而,人工智能系统可以识别以前未知和难以理解的模式。这使得银行很难遵守监管机构的规定,例如《平等信贷机会法》和《公平信贷报告法》,这两项法律要求银行解释他们在做出决策时使用的因素。
Brainard补充说,“幸运的是,人工智能本身可能会在解决方案中发挥作用。人工智能社区正在回应在开发‘可解释的’人工智能工具方面取得的重大进展,重点是扩大消费者获得信贷的机会。”
Tabb公司的Summerville表示,证券业也在研究这个问题。她指出,“能在人工智能中构建一个无偏见的模型吗?需要能够解释公司是如何做出决定的。监管机构有兴趣确定你不会意外地引入偏见。”
随着Synchronomy公司开始关注人工智能和机器学习的信用决策,黑盒问题也成为该公司面临的一个问题。
他说,“我们希望在模型中建立可解释性,并指出做出这些决定的原因。这不容易做到。不能出于歧视性的原因做出决定。例如不再说‘我不会为这个邮政编码的人提供信用证明’,因为这是违法的。”
该公司还花费大量精力确保用于培训人工智能模型的原始数据不会有偏差。Simpson说,这是公司需要这么多数据科学家的原因之一。
该公司采取的减少偏见的一种方法是从一个多元化的团队开始。
他说,“如果没有多元化的团队,很难确定数据中的偏见,因为企业的团队可能存在偏见。这对银行来说尤为重要,团队的多样性是这个领域的第一个也是最好的防御策略。”