美国《新闻周刊》网站2月4日刊登题为《人工智能可能会在数十年内解开人体的秘密》的文章,作者是亚历克斯·菲利普斯,内容编译如下:
一位医生(同时也是一本关于新兴技术在医疗领域应用的新书的作者)说,人工智能(AI)可能会比任何人类都能探索更多元的数据,从而在几十年内解开我们身体的秘密并且准确诊断疾病。
罗纳德·拉姆齐在接受记者采访时说,虽然人工智能已经表明在临床环境下具有实用价值,但目前使用的模型在复杂程度和范围上都很有限。最终,“多模式”深度学习算法将能够了解患者的多方面医疗数据,并预测他们可能存在的问题。
他说:“人工智能发挥最大影响的领域,将是分析我们身体的秘密以及体内基因与微生物组之间的复杂关系、我们的大脑中正在发生什么。”
大量范例
首先要克服一些障碍,包括缺乏足够的数据来训练人工智能模型、安全方面的担忧以及两方面的犹豫态度。
拉姆齐的论著《人工智能医生:人工智能在医疗领域的兴起》中收录的研究显示,目前,在医疗环境下使用人工智能通常仅限于在特定医学领域执行小范围的任务——但它们还是有用的。
在放射学方面,人工智能模型可以审查扫描结果,并识别可能遗漏的肿瘤或骨折。在拉姆齐擅长的心脏病学方面,一家公司开发了基于手机的算法,利用智能手表来监测佩戴者的心律,希望利用这种算法来确定患者何时可能会出现心脏骤停。
目前取得这些进步是因为算法只需要分析一种类型的数据,而且可以利用已经广泛数字化的数据进行训练。拉姆齐说,X光射线图像“几十年前”就被扫描到计算机上,这为用于在CT扫描中发现问题的人工智能程序,提供了可供在投入使用前学习的大量范例。
但拉姆齐说,相较于几十年后可能出现的人工智能产品,回过头看当前的产品将会像是医疗的“石器时代”。
他说:“想想看,人类已经在地球上生活了30万年。一百年前,我们还没有抗生素和麻醉药物。我是一名心脏病学家。1970年,如果你犯了心脏病,死于心脏病的概率在30%左右;而如今,还不到5%。”
他还说:“所以,过去100年里发生的事情令人震惊:预期寿命从35岁左右增加到了80多岁……我们取得了巨大进步,但我们仍然不一定明白……掌握我们生命密码的基因与身体里的其他一切是如何相互作用的。”
数据障碍
拉姆齐预计,在未来几年里,深度学习人工智能将能够绘制出我们的基因组和微生物组,并且弄清它们是如何影响我们的发育和抗病能力的。模型将能够考虑关于一名特定患者的广泛指标,并且通过对人类的整体理解,预测他们可能面临或者目前患有的疾病。
拉姆齐在他的书中写道,“只需向它们解释新任务……而无需重新训练”,这些新模型“就能解决以前没有发现的问题”,能够“接受输入并且用不同的数据形式组合产生输出(比如,它们可以采取图像、文本、实验室结果或者其他组合方式)”。
他说:“我们的头脑不可能揭开那些关系。在这个领域,人工智能不是奢侈品,它将成为一种必需品。因为它是唯一能够筛选数十亿数据和数万亿连接并且弄清关键关系和关联的技术。”
拉姆齐说,正在实施的这些模型面临的主要障碍之一是,缺乏将为这些预测提供信息的有标记、结构化和经过验证的医疗数据,原因是医疗已经落后于其他行业,而在那些行业,数字化和数据集体化方面的安全不那么令人担忧。
非结构化和无标记的数据约占医疗数据的80%,这些数据可以分为多个位置和多种格式(包括纸面格式)。这些训练数据中的缺陷可能导致人工智能模型的判断错误,而数据集偏向于某种人群类型可能意味着它做出的决定会在无意中伤害另一人群。
他提到一个例子,他去年在纽约骑自行车发生事故时,尽管他的本地医疗中心在同一座城市,却没有他住进医院重症监护室的记录。
他补充说:“即便关于一个人的数据只有一项缺失,也可能会改变他们的整个健康状况。因此,如果你用人工智能算法预测他们的健康状况或者帮助决策,而你缺少一项关键数据,这就是个真正的麻烦。”
隐私争议
但是,提供先进人工智能模型所需的数据也有自己的挑战,尤其是如果一个人群的完整医疗记录保存在一个易受网络攻击的单一数据库中,那么医疗隐私就有被侵犯的风险。据英国《独立报》报道,去年针对英国国民保健署的勒索软件攻击攻破了一个包含110万名患者信息的数据库。
拉姆齐说,医疗人工智能服务提供商还将越来越多地被迫应对不同管辖区的“监管拼凑”,这可能会使安全要求和数据获取复杂化。
与此同时,他把目前的医疗人工智能市场描述为“狂野西部”,美国食品和药物管理局提供了审批的“低门槛”,从而加剧了临床医生对潜在解决方案的怀疑,于是减少了采用。
人工智能已经在复杂程度方面取得了巨大进展,促使其他领域的应用数量激增。例如,这篇采访由人工智能工具转录而成,但仍然需要人来纠正偶尔出现的错误。
拉姆齐说,医疗行业的采用速度较慢,在一定程度上是因为对患者安全的担忧和避免错误所需的保障,但也是因为临床医生对人工智能持怀疑态度。
医景网2019年对三大洲的1500名医生进行的调查发现,美国医生仍然对使用人工智能持最怀疑的态度,近一半的人说,他们对在专业环境下使用人工智能软件感到别扭。这可能在一定程度上是因为人工智能机器的回答往往是错误的却令人信服。
在医疗环境下,这可能关乎生死,可能会让医生为错误承担责任。具有解释能力的人工智能模型或许可以缓解这种担忧:不仅能提供答案,还能描述它们是如何得出这些答案的。
权衡安全
尽管拉姆齐知道人工智能的“黑匣子”概念,但他认为,模型的答案越复杂,利用的信息越多样化,解释模型的答案只会变得越困难。但他不确定这是否会成为一个问题。
他说:“我们今天使用的很多药物,用了几十年,它们帮助了数百万人,我们不知道它们是怎么发挥作用的。所以,我们必须知道的是,算法如何得出了结论的整个想法可能不像检测输出和确保其一致性那么重要。”
后来进入医疗风险投资领域的拉姆齐表示,反过来,医生可能担心人工智能会削弱他们的作用。他说:“医生是收入最高的专业人士之一。任何可能威胁到他们的收入和自主权的东西,从历史上看,他们已经表明,他们非常擅长确保那些技术永远不被采用。没有人能强迫医生以他们不情愿的方式行医。”
但拉姆齐也设想,即便是最先进的人工智能医疗模型也只能辅助和影响医生,永远都不太可能把患者的治疗完全交给机器。
他说:“人工智能无法权衡犯错的成本。一种算法可能关乎数百万人而不是一个人的生命。它可能会做出错误的预测,或者帮助每个使用该算法的人做出错误的决定。”
但他说,让训练有素、配备完善的人工智能模型为医生的决策提供信息,好处是缩短了这些决策的时间,增大了患者康复和生存的可能性。
人工智能转录工具可以减少使用者必须花费的时间和精力,但仍然需要一个人来掌握删除和保留哪些东西。同样,拉姆齐希望人工智能医疗工具能够帮助医生更快和更准确地做出决定,而不是替他们做决定。
他在书中写道:“飞行员过去手动驾驶飞机,但他们如今在计算机的帮助下操作仪表盘。这提高了飞行的安全性,也改善了航空业。医疗可以从同一种方式中获益。”
来源:参考消息