当机器人决定走特定路线前往仓库,或无人驾驶汽车决定左转或右转时,它们的人工智能(AI)算法是靠什么做出决定的?现在,AI还无法向人们解释自己做出某项决定的理由,这或许是个需要搞清楚的大问题。
2016年,美国新泽西州蒙茅斯县(Monmouth County)安静的公路上出现一辆奇怪的无人驾驶汽车。这是芯片制造商英伟达的研究人员开发出的试验车,尽管它看起来与谷歌、特斯拉以及通用汽车公司研发的无人驾驶汽车没什么不同,但它展现出AI的更多力量。
帮助汽车实现自动驾驶堪称是令人印象深刻的壮举,但同时也让人感觉有点儿不安,因为现在我们还不是非常清楚汽车如何作出决策。汽车传感器收集的信息被直接传给庞大的人工神经网络,后者可对数据进行处理,然后发出相应指令,指挥汽车方向盘、制动以及其他系统运行。
表面看起来,它似乎与能与人类驾驶员的反应相匹配。但是当其发生意外事件,比如撞上树或闯红灯时,我们可能很难从中找出原因。这些AI算法非常复杂,甚至就连设计它们的工程师都无能为力。现在我们还没有办法设计出这样的系统:它总是能够向人们解释为何要做出上述决定。
这些无人驾驶汽车的“神秘意识”正指向一个与AI有关的、迫在眉睫的问题。这些汽车算法以AI技术(又被称为深度学习)为基础,近年来其已被证明是解决诸多问题的强大工具。这种技术被广泛用于图像字幕、语音识别以及语言翻译等领域。现在,同样的技术也被期望能够帮助诊断致命疾病、做出价值数百万美元的交易决策以及无数足以改变整个行业的其他事情。
但是直到我们找到新的方式,能让深度学习等技术变得更容易被其创造者所理解、更容易向用户就自己的行为作出解释后,上述场景才会出现或应该出现。否则很难预测它们何时会出现故障,而且出现故障将是不可避免的。这也是英伟达无人驾驶汽车依然处于测试状态的原因之一。
目前,数学模型正被用于帮助确定谁该获得假释、谁应获得贷款以及谁该求职被录用。如果你能接触到这些数字模型,很可能了解它们的推理过程。但是银行、军队、雇主以及其他人现在正将注意力转向更复杂的机器学习上,它可以帮助自动决策变得更令人匪夷所思,而深度学习可能从根本上改变了计算机的编程方式。麻省理工学院机器学习教授汤米·雅科拉(Tommi Jaakkola)表示:“这个问题不仅与当前有关,更攸关未来的许多问题。无论是投资决策、医疗决策亦或是军事决策,我们都不能简单地依赖这种 黑箱 。”