机器人,另一个我
开头说到AI、隐私和机器人科幻之间可能存在某种关联。这种关联源自于技术的不断发展,科幻为技术的未来提供了某种可能性的遐想。
AI的发展需要很多数据来满足场景建模的需要,AI算法可以通过分析每个人的各种行为数据推导出这个人的人格特征。算法通过个人在社交网站中的点赞数据即可分析出这个人的喜好特征,通过协同过滤算法就可以对个人进行精准广告推送,比如给外向的人推送的广告场景相对活跃和充满激情,给内向的人推送的则是相对安静和私密的场景。
同样的分析手段甚至被用在选举宣传的过程,能起到影响选民决策判断的作用。通过给不同性格或者意向动摇的选民推送不同版本的选举广告,或者推送对手的负面新闻,左右目标群体的决策,达到“心理操纵”的目的。
而不断进化的人脸识别的技术能仅通过面部特征的识别就能判断出一个人的性取向这么私密的信息,准备率能达到80%以上,而我们人类本身很难仅通过一张脸就能判断出一个人的性取向。以色列的一家公司Faception声称可以直接通过面部特征来识别恐怖分子、高智商的人群,分分钟看透你的内心。
AI可以不断地从人类的隐私数据中攫取价值,甚至能够再现人的心智模型。有没有想过,有一天,一旦AI掌握了人的足够多的关键数据,建立更加完备的模型,不仅能做到“心理操纵”,甚至可以做到“心灵控制”。
人类的实体存在和精神存在被抽象为一个个复杂的画像模型,或者“心灵镜像”,这些模型和镜像包含了我们的所有特征,身份、性格、思维等等。只要将数据拷贝到一个机器人中,就可以生成另一个“我”来,甚至另一批“我”。
这里的机器人可以理解为以机器为载体的AI算法和存储机制,加上更为先进的能源和机器进化机制,托管人类只是理所当然的事情,人类的心灵镜像只是被更为高阶的AI算法利用。会发生什么,我现在还不敢往下去想。
这或许让你想起了《黑客帝国》《异次元骇客》这样的科幻电影。”爱死机“(Love,Death& Robots)的第一集《桑尼的优势(Sonnie’s Edge)》、第七集《天鹰座裂隙之外(Beyond the AquilaRift)》和第十五集《盲点(BlindSpot)》也隐含了这样的主题。
AI通过不断的迭代和进化,直至让机器人达到与人的心灵模型近乎一致,这是科学家们一直在追求的梦想,也是可怕的未知的未来。
已知的未来
AI应用的边界、隐私数据保护的度在哪,现在还是未知。社交活动数据、零售数据、金融行为数据、医疗健康数据等被广泛用于AI各种应用场景,的确也朝着为人类带来更多服务的方向发展,但是对于这样的涉及隐私数据利用的监管仍处于探索阶段。
任何企业应用与隐私之间需要一个权衡。欧盟去年5月出台的一般数据保护条例(GDPR)中有几条关于隐私数据的保护原则,其中不仅包括隐私数据的处理过程需公正透明,使用场景和保留期限需明确限定,数据需保证完整、准确和保密等要求;而且还要求对隐私数据的获取要满足最小化原则,也即只获取必要的、相关的、限定的隐私数据。
GDPR的推出在全球关乎隐私数据的保护方面具有非常强的引领作用。在各种AI算法和模型得到越来越广泛应用的今天,针对上述隐私数据的保护原则,尤其是最小化原则、保密性原则、透明性原则,AI公司或者与AI产品相关的公司必须考虑AI算法的发展方向。可以预见,未来满足下面条件的算法将是主要方向:
(1)需要更少隐私数据的AI算法。这样的算法要么可以自己生成观测数据,如生成式对抗网络(GAN);要么通过分布式解决中心化训练对数据量的要求,如分布式机器学习(Federatedlearning)可以实现在边缘设备端进行模型的再训练。
(2)基于加密数据的训练算法。将原始隐私数据加密,并且还能通过加密后的数据进行训练,这样不需要减少对隐私数据的获取,也能保证数据的保密性。这样的算法包括差分隐私技术、同态加密以及迁移学习等方法。
(3)可解释的AI(ExplainableAI,简称XAI)。很多AI算法的黑箱性质让人类担忧。XAI致力于提高算法应用的透明度,构建“玻璃箱”模型,使人类能够轻松理解AI算法,提高AI认知智能在人类活动中的可信度。这将是未来趋势。