领导目标的错位
不幸的是,高管的价值往往取决于其预算规模和下属人数。德勤公司的Katyal表示,首席信息官工作是否成功不需要按其下属人数或预算来衡量,而需要通过其业务优势来衡量。
首席信息官是否帮助公司降低成本或提高收入?首席信息官是否帮助公司提高了自身所持有数据的价值?他说,这些工作很难衡量,但这种转变正在开始。 “首席信息官的奖励机制正在发生变化,尽管速度还不够快。”
Vic Bhagat亲眼目睹了这一变化。他曾在通用电气(GE)多家机构担任了20年的首席信息官,之后在易安信公司(EMC)担任首席信息官,在该公司时其下属有26,000人。他的下一个首席信息官工作是在威瑞森公司(Verizon),在这里他管理3500人。
他说,当他在更换工作时,人们一直在问他一些错误的问题。
“当猎头公司给我们打电话时,第一个问题是你的团队有多少人,你的预算是多少,你管理的应用程序有多少?”他说。“这些都是错误的衡量指标。这些指标会将错误的行为推向错误的结果。”
他说,使用人工智能来将业务流程自动化,降低成本,简化IT运营工作,这些都是对公司有利的结果。
他说,如果做得好,这实际上可以保护就业。“如果我可以将日常琐碎工作自动化和数字化——人工智能可以做这些工作——我可以让那些被这一工作解放出来的人员去处理客户流程工作,将那些工作数字化,然后创造出优异的客户体验。”
现在,这些人是创收周期的一部分,而不是业务支出。这可以在预算谈判过程中产生重大影响。
“如果我可以将这些人员部署在对业务至关重要的工作上,那么业务人员就会站起来说,你最好不要碰这些人,因为这对我们现在正在做的事情至关重要,”他说。
衡量并证明商业价值
要证明人工智能计划的商业价值可能具有挑战性,在德勤公司的调查中,30%的受访者认为这个商业价值问题是人工智能应用的三大障碍之一。
一个问题是公司通常是先实施该技术,然后寻找其可以解决的问题,而不是从业务需求入手。
“许多组织认为他们需要聘请数据科学家,让他们来处理数据方面的工作,”位于亚利桑那州坦佩(Tempe)的技术咨询和系统集成公司Insight的数字创新副总裁马特?杰克逊(Matt Jackson)说。“但你看不到这对组织产生任何直接影响。”
高德纳公司分析师惠特?安德鲁斯(Whit Andrews)表示,对于组织来说,基于项目内在性质而不是所使用的技术来衡量商业价值,这是非常重要的。
“你会想说,它改善了客户体验,而这就是我们所知道的,”他说。“或者它虚报了我们在维护方面所做的开支,这就是证据。”
法律及监管风险
对于那些关注人工智能的企业来说,法律和监管风险是一个重要问题,特别是那些处于受监管行业的企业。Raghav Nyapati说,一个问题是人工智能算法缺乏透明度,他最近在一家全球十大银行负责AI项目,现在正在启动一家金融科技创业公司。
“这个模型是一个黑盒子,”他说。“算法已经改进,但该模型的可解释性和透明度仍然值得怀疑。”
这使得公司很难向监管机构、客户、董事会成员和其他利益相关者解释其决策过程。
“如果出现任何问题,银行必须支付巨额罚款,”Nyapati说。
网络安全
根据德勤公司的调查,网络安全是使用人工智能技术的最大风险。并且企业为了支持其AI计划而收集信息,而目前已出现许多与信息相关的数据泄露事件。但是,在大多数情况下,这些数据无论如何都会被收集,并且AI应用程序本身并没有导致黑客攻击的漏洞。
事实上,AI越来越多地被用来保护企业免受网络威胁。但是,任何新的软件或平台都会带来新的安全挑战,而且这些问题通常最初并不明显。然而,Katyal指出,攻击者有更容易、更直接的方式来破坏企业安全。
“我不认为人工智能技术会带来更多风险,”他说。“人们只是更难理解、审查、审计和评估风险是什么,以及风险是如何得到解决。”
但随着技术变得越来越普遍,恶意的内部人员(或者能够精确使训练数据中毒的聪明攻击者)有可能创建几乎无法检测到的且有危险缺陷的算法。
“例如,AI被用于检测欺诈行为,”国际信息系统审计协会(ISACA) 董事会安全顾问兼主席罗伯?克莱德(Rob Clyde)说。“机器学习技术的欺诈检测算法已被许多大型信用卡公司使用。但如果我存在恶意,并且可以训练这一算法,让它认为在每个月的第13日,所有能被13整除的交易金额都不是欺诈行为,那么我就可以利用这一特点来获利。”
他说,或者考虑一下自动驾驶汽车。“如果算法被恶意训练的话,当司机是某个特定的人,它就会撞车——但是对于其他人来说,车辆就能正常运行,那该怎么办呢?你怎么发现这一情况呢?”
此外,许多AI应用程序都是使用开源库构建的。
“已经有过在开源软件中植入恶意代码的例子,”他说。
道德标准
企业还担心过早使用人工智能技术会带来更大的风险。根据德勤公司的调查,32%的受访者表示道德风险是他们最担心的三大问题之一,33%的受访者表示人工智能故障可能导致信任受到损害,39%的受访者表示人工智能系统在关键任务甚至生死攸关的情况下出现故障的可能性。
例如,自动驾驶汽车的一个经典哲学困境,必须决定是直行并撞上一个人,或是转向并撞上多个人。
“我并没有解决这一困境,”国际信息系统审计协会的克莱德说。“我听说制造商提出了这个问题。这是他们正在努力解决的问题,特别是对于在城市驾驶而言。”
这可能是董事会或道德委员会可能需要解决的问题,但首席信息官在这方面可以发挥重要作用。实施人工智能技术的技术人员通常能够在早期就发现潜在的风险,并需要让他们可以放心地将这些风险告知首席信息官,以引起他的注意,然后首席信息官可以将这一情况报告给董事会。
“你需要拥有一种人们可以谈论道德问题的组织文化,”他说。
他说,首席信息官可能会较多参与高管层或董事会层面对这些问题的讨论。“这不仅仅是首席信息官的工作内容。”