Mongoose House Technical Edition

人工智能的边界

说到人工智能,其实大部分指的是人工智能中机器学习领域中的联结主义,即人工神经网络。人工神经网络和统计学的结合,因为具有封装较好的算法模型,在生产中才得以取得了更广泛的关注。

统计学最大的问题在于不具有可证伪性,这个基因使得这种科技终究无法运用在需要逻辑推理的场景,或者说是需要确定性结论的场景中。

大数据学习的本质是模式识别,这和生物的智能是相悖的。生物的学习是小数据集小样本的学习。

现在也有一些貌似不需要大数据的机器学习,譬如AlphaGo,强化学习,人工对抗网络… 但其实也是在明确的规则框架下,自主生成“大数据”学习的模式。

这波人工智能浪潮之前其实已经经历过两次人工智能浪潮,现在人工智能做的比较好的领域基本都集中在使用模式识别来解决问题的范围内,而对于开放性的问题,以现在的技术水平还无法解决。

譬如,深度学习,因为深度学习的结论不具有可解释性,所以终究只能是辅助决策。虽然深度学习模型从理论上可以解释,但是非常非常难解释。一个模型,有几十、几百层,一层有几千几万个节点,那么怎么去解释一个一个节点,终究还是个黑盒。在很多场景下可解释性还是很重要的,譬如,金融、风控、授信、司法等领域,但有些场景就不那么重要,譬如,推荐系统、图像识别,所以就得以广泛应用。

譬如,自然语言理解,由于机器缺少常识,终究无法达到人的水平。而在垂直领域,chatbot的水平完全取决于知识图谱的广度和深度,终究还是常识的问题。

譬如,自动驾驶,终究只能是有限条件下的应用,因为机器还解决不了休谟问题。休谟问题有三个方面,我这里说的主要是是否可以由“being”推断出“should”,譬如,自动驾驶,即便是在确定场景中,那么撞行人还是牺牲乘客,这又涉及到人工智能的伦理学,这是哲学层面的难题,而不仅仅是技术层面。