人工智能的尽头是人工(一)?上个月出门,发现十字路口的交警和辅警人数明显增加了。我不禁有些诧异,近十年来,人工智能最成功和最有效的落地成果不就是安防和交通相关应用吗,而十字路口往往都是视频监控最密集的地方?既然如此,为什么还需要那么多警力呢?
除了定期上街执勤需要外,一个深层次的原因是,人工智能并不能百分之百包打天下。更极端情况下,人工智能的尽头可能是人工。
何出此言呢?其一原因是人工智能算法的评价准则。这里谈论两个指标,漏检率和误报率。第一个指标,漏检率是指本应发现却未被算法发现的问题,俗称假阴性。
以交通违章为例,假阴性或漏检率意味着并非所有违章现象都能被有效发现。在监控探头日益普及的今天,多数违章都已经能通过人工智能算法检测到。如早期研发的闯红灯、高速公路超速、占用高速应急车道等,中期研发的基于云台监控摄像机的三分钟路边违停、车牌遮挡等,和近年来的实线变道、市内禁鸣区域鸣笛等。然而,随着驾驶员的交通安全意识的提高,这些易于监控的违章现象正变得越来越少。以至于可以推测,在未来针对这类违章的监控可能会较难被触发,甚至形同虚设。那么,交管部门和相关研发的公司就必须深化监控系统的研究,将重心推向识别更为复杂的交通违章行为。比如恶劣天气或低照度情况下的低分辨车牌识别、非机动车的违章行为。然而,这些复杂的交通违章并不见得能通过人工智能算法获得很低的漏检率,甚至可能无法形成应用级的实际监控系统。如非机动车闯红灯行为、以及在禁行区域行驶。尽管目前这一块的智能监控已经开始试点,但当非机没有车牌以及驾驶者戴着口罩时,算法很难自动给出确定的结论。此时,就只有依赖人工现场截停和处罚了。
而第二个指标,误报率则是指不应被检测出来、却被错误辨识成真的“假问题”,俗称假阳性。
仍以交通违章为例,假阳性高意味着会报到过多的假违章现象。如在高速公路上,一辆车被检测出超速了,但实际上真车并未出现在该路段,结果车主收到了一张不属于自己的罚单。再比如将公共汽车车身上的广告人物错判成违章的行人。这些都是假阳性。误报率高或假阳性高,往往会导致后期人工介入工作量的增加。
除交通违章外,漏检率和误报率引发的问题,在很多领域的应用中都可以见到。如在医疗方面,新冠病人的漏检有可能会造成不必要的病毒传播,而健康人误报为癌症会导致人的心理状态失。如在短视频检查上,疑似漏检的违规短视频必须通过人工审查来杜绝其传播后造成的危害。误报的也需要通过人工来决定是否可以放行。
近年来,大量人工智能技术的落地,表明相关应用的误报率和漏检率问题已经有了显著的改善。但需要指出的是,一旦容易实现的应用都完成落地或产品化了,剩下的可能都是难啃的硬骨头。这些硬骨头的潜在应用里,依赖现有的人工智能技术,两个指标可能很难得到明显的改善。它也就意味着,人工处理仍然会是这些应用需要依赖的主要手段。
事实上,漏检率和误报率这两个简单的指标,只是影响人工智能全面替代人工,以及导致人工智能最终需要依赖甚至让位于人工的一个小因素。
其原因在于,这两个指标主要与预测任务的性能相关。而人类智能中除了预测,还有与可解释性和其它与预测无密切关联的智能活动。如学生们刷题后形成的对新题的快速判断,那是可以不经过常规解题思路直接找到答案的快速途径。从某种意义上来说,这是摆脱了原有学习模型后形成的一种“跳”连接,或者直觉。这种直觉,目前还无法通过数学建模方式来表示,仍然需要靠人自己的持续学习来获得。情感也是如此,尽管我们在构建人工智能算法中可以机械性地将情感分类并进行预测,然而这样获得的情感只能让机器人更为机械化,却无法向共情迈出质变的一步。
即使是预测,我们也受限于对自然界的理解,而不能对人工智能技术抱以过高的期望。如气象预报中局部地区的降雨预测,会因为对大尺度台风的数据收集不完全而出现失误。不仅是空间尺度上存在局限性,时间尺度亦如此。如气候的变化有可能是几十年为周期的,那么单靠十来年的数据进行气候意义上的分析显然是不准确的。事实上,我们在一些应用中还面临着数据的稀少问题。如局地冰雹的预测会因为数据极其稀少、且在雷达回波上无法与大降雨云层区分开,而导致判断失效。
我们也不能过份相信机器的预测能力。如在自动控制方面,过份相信机器的判断,可能会导致极其危险的后果。如2019年3月埃航737 max8的空难,就是过份相信机器的自动驾驶,以至于驾驶员后来无法接管引发的悲剧。
能列举的人工智能短板还有很多,我就不一一枚举了。在这里,我更想表达的是,目前人工智能技术的落地主要是在预测能力能达到应用级的应用上,算是在享用这些应用的能有的红利。一旦人工智能在应用层的红利消失,剩下的可能就得靠人力了。那么自然的问题是,人工智能的红利,在各种相关的应用上还能持续多久?人工智能的尽头会是人工吗?还是必然会走向人机混合呢?
上一篇:教学与科研之间矛盾如何化解?