这几个星期以来,我所订阅的《麻省理工学院科技评论》每周通讯、牛津大学学者丁志杰(Jeff Ding)所编撰关于中国人工智能最新概况的《ChinAI》通讯,以及前谷歌大脑主管吴恩达(Andrew Ng)所主编的《The Batch》周讯,开始罗列人工智能在应对新冠肺炎突发状况的多种应用场景(use case),以及模拟瘟疫传播趋势的人工智能预测模型。

在稍早之前,媒体只能举出大概2个位于中国境外,早在去年12月尾至今年1月间,通过分析中国社交媒体上的热门话题,成功初步预警新型肺炎病毒传染风险的自然语言处理(Natural Language Processing)人工智能模型,那分别是加拿大多伦多的BlueDot,以及美国波士顿的HealthMap。

是人工智能系统真的无法及时在前所未有的危机发生前就警示人类尽早做足防范措施吗?还是这是因为充满惰性、不喜噩耗的人类,总是下意识的将自己的视野局限、短视、偏见、大意和疏忽通过训练数据,内置入人工智能建模里,而错过了掌握准确危机警报的黄金防范时机?

我在4月15日发表的评论稿件《突发危机暴露AI的局限》,尝试举出以人工神经网路为骨干的机器学习以及深度学习技术过分依赖常态数据的缺陷。距离4月15日,各地人工智能专才可能已经开始掌握更多的数据点(data point)和参数(parameter)来创建更具时效的人工智能模型。但是,我始终认为,以人工神经网络为主干的机器学习和深度学习,其实是有亟待解决的软硬体技术缺陷的。

我的浅见是,新冠肺炎疫情很可能是AI的梦醒时分,就像2000年代初的互联网泡沫敲醒人们的幻象一样──并不是为一个.com域名架设一个让消费者得以浏览的网站,企业的获利模式就会马上无止尽升级。追根究底,不论是网站,还是AI,我们都需要认清它们只是工具,需要应用在对的场景,让对的专才应用,才能发挥提升业绩的功效。

无法代替人类思考

AI的最普遍效用是优化流程、自动化一些需要密集人力识别的工作(如图像和物件分门别类的识别任务)、提供意见(如搜索引擎建议输入的关键词)、以消费者过往的浏览偏好来推荐他们可能感兴趣的主题或产品、模拟条件改变所可能产生的各种发展变局等。请务必了解,AI无法代替你思考和发现黑天鹅事件。也许AI可以提供你尽早发现黑天鹅事件的线索和不规则现象,但,你需要有敏锐的洞察力来识别和判断。

简而言之,AI是另一个比较高智能,但现阶段还不具主观能动性的人类辅助工具,必须用在对的刀口上,才能发挥你所希冀的魔幻效应。

前谷歌大中华区总裁李开复博士在近日接受彭博社访问时指出,这一波的新冠肺炎是百年一遇的突发事件,距离上一次的大规模瘟疫太过久远;而且在上一波区域流感发生时,人类还没有掌握收集大量数据的数码科技 。因此,需要从可靠数据爬梳规律的人工智能模型,在当前数据匮乏、数据供应渠道受阻隔或过度受保护(guarded)的窘境下,无法发挥人们预期的功效。他也指出,AI始终是一种工具,并相信最终成功主导发明或发现治疗新冠肺炎的药物和疫苗的,会是人类。

前谷歌大脑主管吴恩达则在近期《The Batch》周讯的前言里,举出了几个人工智能系统在新冠疫情的冲击下,做出误判的实例。

(一) 金融业防欺诈预警系统由于大量用户改变消费行为而失效。在此之前,信用卡公司一般上会标示有别于常态的刷卡行为为疑似盗用案件。但这假定在大量消费者在家工作,没光顾餐厅和商场的状况下不再成立。

(二)物流人工智能预测模型以前都能准确的预判物品的需求和供应。不过,在厂商、运输公司和消费者纷纷改变操作模式或消费行为的此时此刻,一个以去年的物流数据培训的人工智能建模,如果现在预测下个月会有一千个部件的货运量,不会让人相信。

(三)互联网线上服务突然暴增或暴跌的用户量,驱使企业营运者们重新评估他们此前一直采用的消费需求估算模型,因为此前成立的统计模型已经不再管用。

另外,5月1日的《麻省理工学院科技评论之算法每周快报──解开AI的面纱》以“谷歌的人工智能医疗系统在实验室里超级准确,在现实生活却是另一回事”为标题,阐述以人为本的系统作业流程,以及稳定、健全的周边基础设备,将会是人工智能医疗辅助系统能否发挥实效的关键。

《麻省理工学院科技评论》所引用的例子是,谷歌医疗(Google Health)所开发的人工智能糖尿病性视网膜病变扫描系统在实验室条件下操作近乎完美,但在泰国投入运作后却状况连连。

该报道指出,泰国当前的糖尿病性视网膜病变诊断流程是,护士会在病人进行身体检查时,拍摄他们的眼球照片,然后把照片传送给其他地方的眼科医生做诊断,这整个过程耗时大概10个星期。而由谷歌医疗研发的人工智能系统,可以在10分钟内以高达90%的准确度来诊断病人是否有患病症状。这个系统通过分析病人的扫描图像,来检测病人的眼球是否有血管阻塞或爆裂。 

可是在真实的临床环境中,许多医护人员在人手短缺和病人数量高的情况下,没办法控制拍摄病人眼球照片的质量,造成许多不达质量水平的病人眼球照片被谷歌的人工智能辅助诊断系统所淘汰。这些病人过后被要求在另一个日期前往不同的诊所,接受其他医护人员的第二度检查。这结果让许多护士沮丧不已,尤其是当护士确信被人工智能系统所拒绝的病人眼球扫描照片没有患病的迹象,并认为另一次跟进预约根本是多此一举。

还有就是,基于一些诊所的互联网网速有时候不是很稳定,泰国护士把病人的眼球扫描图像上载到云端系统的过程极不顺畅,造成看诊延误。有些病人从早上6点就开始等候系统的诊断,并希望获得即时的看诊结论。可是在诊所开始新一天营运的首两个小时里,护士们只能在龟速网速的窘境下扫描10个病人的眼球。

谷歌医疗团队目前正与泰国当地的医护人员合作设计新的病患看诊流程──譬如让护士们接受培训,对处于灰色地带的临界案例作出自己的专业判断。谷歌团队也尝试调整人工智能系统,让系统更好地处理不完美的病人眼球的图像。

以上研究个案,与美国布鲁金斯研究院(Brookings Institution)最近发表的研究报告结论相符,即“没有行业专家辅以学科专长,人工智能会失去其价值”(There is no value in AI without subject-matter expertise)。

布鲁金斯研究院一篇题为《合理质疑人工智能应对新冠病毒指南》的报告指出,滥用人工智能系统来高效预测一个拙劣定义的命题之结论,比什么都不做更糟糕(Effectively predicting a badly defined problem is worse than doing nothing at all)。这是因为判断人工智能应该用来预测什么,如何构架预测的范围,是定夺人工智能系统能否发挥现实场景应用实效的关键。由是观之,人工智能系统需要行业专才来驾驭,评估它的数据模型是否经得起时间考验、会否准确的适用于不同的人口结构,并且适时的让人类专才介入进行系统调整。

布鲁金斯研究院的报告也质疑一些网络媒体假定采纳人工智能算法的加拿大初创公司BlueDot在新冠肺炎病毒扩散前,就成功透过各地新闻报道和航班等数据,预测到瘟疫爆发的说法。这是因为有报道指出,中国官方早在去年12月26日就从实验室的化验结果获悉新冠病毒的存在。而武汉的医生们也在网上传播关于不明肺炎病毒的担忧。另外,由志愿人士所经营的“传染病监测计划”( Program for Monitoring Emerging Disease, ProMED )网页,也在12月30日就发出更详细的传染病警讯。

美联社记者克礼丝蒂娜·拉尔森(Christina Larson)以及马特·奥布莱恩(Matt O'Brien)认为在12月31日预警新冠肺炎的BlueDot是第三个发出警报的平台。第一个预警的平台是波士顿小儿科医院内的HealthMap自动警报系统。

HealthMap早在12月30日晚间11时12分,已经通过扫描网络新闻和社交媒报道预警武汉爆发了不明肺炎,却只将肺炎的风险评级评定为5级之中的第3级,明显低估了新冠病毒的风险。半小时后,志愿机构“传染病监测计划”(ProMED)亦发出警讯;更为详尽的ProMED警报乃传染病学专家通过人力和脑力系统性查证后所撰写的分析。将ProMED的资料作为数据来源之一的BlueDot则是在12月31日才发布首次警告,为第三家发出警报的机构。

布鲁金斯研究院的报告总结,人工智能不太可能理解并掌握突发危机的全盘背景(contextual understanding),以便有效的分辨可控的新疫情和难以招架的全球流行传染病。美联社记者克礼丝蒂娜·拉尔森则认为,最佳疫情风险警报系统结合了人类专才和人工智能的强处,让二者有效的互补。

综上所述,人工智能系统可以持续扫描网络新闻,社交媒体和各国政府所发布的官方数据,寻找流行传染病爆发的早期征兆,然后第一时间通知世卫等机构的人类专家,让他们进行更详尽的的查证和分析。无论如何,正如The Next Web网站在总结美联社记者克礼丝蒂娜的研究结论时所指出的那样,由人工智能技术驱动的疾病警报系统可以成为有用的工具,但它们不应取代人类来设定公共医疗保健政策。

余福祺

7字辈,毕业自马来亚大学电脑科学系,从事软件测试工作,喜爱钻研人工智能以及互联网科技最新动态,也是隆雪华堂民权委员会委员。