美国军方希望打开机器学习技术的“黑匣子”

20.03.2017  08:18

  最近的机器学习技术大都是“黑盒”的, 美国国防高级研究计划局(DARPA)现在正在努力资助其中的一部分变为“白盒”。

  智能代理和军事操作人员在解释大规模数据和控制逐渐增长的军事自助系统时,可能会非常依赖于机器学习技术。现在美军希望确定,它们并不是在盲目地依赖着这些人工智能算法。

  DARPA 的项目经理 David Gunning说: 我们现在真的面临着AI技术的大爆炸。

  David Gunning正在着力于资助一些可以对它们自身技术和推算进行解释的AI技术的开发。 他表示,其工作的重点主要就是机器学习和深度学习。

  

  深度学习和其他机器学习技术已经如暴风雨一样洗礼了整个硅谷,这些技术很大的改进了语音识别和图像分类技术。这些机器学习技术也逐渐被用于更多的领域中,比如说法律执行和医药,这些一旦发生错误就会造成严重后果的领域。

   虽然深度学习可以非常好地找到数据中的模型, 但是现在我们还是不了解它是如何做到的 。从数学的角度出发,深度学习对数据的学习过程是非常复杂的。所以在很多时候,这些学习过程并不能被人们理解。

  深度学习特别难以解释,解释其他机器学习技术也可能同样具有挑战性,David Gunning说:“这些模型都非常地不透明,所以很难让人们解释,尤其是当他们不是AI领域的专家的时候。

   由于深度学习特别的复杂,所以它显得更为神秘。 简单来说,深度学习是受启发于脑神经元对输入信息进行响应从而学习的过程。许多层的模拟神经元和突触都被标记上了数据,这些神经元和突触的行为在学习的工程中不断被调整,直到它们学会如何进行识别。

  比如说,直到他们学会如何识别一种图片中的猫。但是通过机器学习出来的模型,是被数百万个神经元作为加权特征的值而编码的,所以检验一遍这个模型是非常具有挑战性的。当一个深度学习网络可以识别一只猫的时候,我们并不知道这个学习系统到底是聚焦在这个图片中的猫须,猫咪的耳朵,还是猫咪的毯子上的。

  通常,机器学习是否透明可能并不是很重要,但是对于一个试图识别潜在目标的情报官员来说,他在使用的机器识别技术是否透明就很重要了。David Gunning说: 在一些关键性的应用上,是需要解释的。

  David Gunning补充说道,军方现在正在开发很多自助系统,毫无疑问这些系统将很大程度上依赖于机器学习技术,比如说深度学习、自动驾驶汽车、无人机。这些系统也将在未来的几年中逐渐投入到使用中,这些系统对军事领域的影响也会越来越大。

  可解释性并不是只对验证结果有用,它同样也可以防止事情出错。一个通过单纯的关注图片纹理部分而学会对猫咪进行分类的图片分类系统,很可能就会被一个毛茸茸的地毯而误导。所以提供算法的解释,可以让研发人员提高其系统的健壮性,也可以帮助依赖于这些算法的系统避免很多错误。

   DARPA 正在资助13个不同的研发团队, 这些团队正在致力于探索一系列的方法,让AI技术更加透明,更加容易解释。

  一个正在受资助的团队来自于Charles River Analytics——一家为各种各样的客户开发高科技工具的公司。它们的客户之一就是美国军方。这个团队现在正在致力于开发包含解释器的新的深度学习系统,比如说可以标记与图片分类最相关的图片区域的学习系统。这个团队的研究人员也在对计算机的接口进行探索,他们希望找到可以让机器学习系统在处理数据,进行可视化,甚至自然语言处理时,变得更加明确的计算机接口。

  来自德州农工大学 Xia Hu 教授表示,这些研究同样对其他正在应用人工智能技术的领域非常重要,比如说医药、法律和教育领域。如果这些机器学习算法,没有合理的解释或者推算过程的话,很多专家不会相信由这些机器学习所产生的结果。这也是为什么很多领域的专家,拒绝使用机器学习或者深度学习技术。