类似方案已经开始从美国拓展到其他国家。比如前几天日本神奈川县警方刚向财政部门申请研究经费,希望能为2020年东京奥运会建立一个预测性治安体系。结合大数据体系和AI分析能力来设定更严密的安全保护机制。
如果觉得已经投入使用的系统不够神,那我们应该看看更前沿的研究。PredPol最早并不是一个警用科技创业项目,而是两名科学家的研究成果。站在PredPol背后的其中一个男人,就是加州大学洛杉矶分校的杰夫·布兰汀汉姆教授,他是今天“预测犯罪”领域的先驱和代表人物。
不久之前,杰夫·布兰汀汉姆团队在名为Partially Generative Neural Networks for Gang Crime Classification的论文中提出了这样一种设想:用深度学习网络来识别帮派犯罪的特征,从而将帮派分子从人群中找出来。
事情到了这里,大概有一点“科幻”的味道了。
在布兰汀汉姆团队的研究中,他们收集了洛杉矶警局2014年到2016年所有关于黑帮犯罪的数据,输入到一个深度学习神经网络中,由算法自动生成对于帮派犯罪的特征理解和行为框架。很多案件中缺失的证据环节也将有AI来主动补完。经过长时间的训练,AI开始掌握了一套对帮派犯罪和黑帮分子的独特理解。回到现实中,当警方把新的嫌犯信息输入进AI系统后,就可以由AI来判断该人是不是参加了帮派组织和帮派犯罪。
布兰汀汉姆团队提出的城市时空犯罪预测模型
研究人员表示,这项研究的未来目标是在缺少很多数据的情况下,依旧能判断嫌疑人是否参加了帮派……可以说是非常激进的技术了。
千万不要以为这项技术仅仅是科学家搞着玩的,人家可是明确拿到美国国防部的资助,目标是以时空博弈论和机器学习技术打击极端主义。在帮派犯罪预测之后,布兰汀汉姆团队还将在具体犯罪种类预测和实时预测犯罪上展开进一步探索。
显然,不管你愿不愿意,AI预测犯罪的“大预言术”已经向现实逼近。而一路伴随他的,是关于隐私、歧视和不靠谱的争议。
要安全还是要隐私:警用AI的原罪博弈
去年,谷歌曾经发长文指出,中国某高校用人脸数据来预测罪犯的研究十分不靠谱。原因是这项研究分析了犯罪分子数据库,从而得出了“某种面部特征的人更容易犯罪”,显然是把两种不相关的信息强行结合到了一起。
这场类似于“相面”的AI闹剧告诉我们这样一种可能:我们太想知道未来,也过分愿意做数据归因。很多看似神奇的结果,可能都是在这两种有问题的心理下被强行得出的。
比如就有批评者指责上文提到的AI帮派犯罪预测。由于其数据来源完全是洛杉矶警察局提供的案件信息和警察得出的结论。那么AI想要判断准确,就必须建立在洛杉矶警察局所有判断都正确的基础上,而对于帮派犯罪来说,这显然不可能。
数据关系之间的牵强,让很多预测类的警用AI从一开始就备受质疑。而其深度学习过程中的黑箱性也是观察家和民众批评的焦点:研究者都不明白AI是怎么预测犯罪的,居然就敢说我有问题?
更无奈的是,技术问题还仅仅是警用AI科技面临的第一重困境而已。向上一层则会撞上非常难办的歧视问题和隐私问题,在道德困境面前,技术会更加束手无策。
比如说前面说过的AI预测重点巡逻地区。这件事在日本还没开始,就已经有媒体担忧这很有可能加大警方对某几个具体区域的巡逻强度,从而让这个区域的居民和店铺产生不满。
在美国,这种不满早就体现出来了。2016年美国公民自由联盟曾经联合十几个人权组织发表声明,认为警方用AI作为巡逻,甚至审讯和逮捕的工具并不恰当。其背后隐藏着警察系统对某些社区甚至某些族裔居民严重的偏见。
也有媒体比较阴谋论地认为,加州很多城市的警方过度热爱搞一下AI预测犯罪的技术,或许含有警方希望在缺少或者没有证据的情况下实施执法。
而关于隐私的争论就更严重了,城市摄像头追逃按说已经是比较“温柔”的技术,但还是有很多声音批评这些能够高高在上认出街上每一个人的技术,其实是对居民隐私的侵犯。“不被认出来”也是隐私权力之一,更何况数据如何应用居民也无法自主。
当警方手里的识别工具越来越强力,犯罪分子的活动空间当然会越来越小,但普通居民感到的隐私压抑感也会随之上升。在AI识别能力爆炸式发展的今天,这可能会是一个无法圆满解释的矛盾。
在的警用AI科技领域,强调公众安全还是强调居民隐私,优先考虑技术的妥善度还是应用效率,处在一场无止境的博弈里。
AI从来都是一把双刃剑,这一点在安全领域尤其明显。(作者:脑极体)