姓名、病史、医疗影像通通泄露,500万人数据库没密码随便看,AI医疗暴露危机
铁头娃 发自 凹非寺
量子位 出品 | 公众号 QbitAI
AI在医疗方面的应用中,针对医学影像的辅助判断一直是最为火热的方向之一。
但是在AI的诊断结果逐渐接近专业医师之后,AI诊断使用的医学影像数据又该如何处置呢?
独立非盈利网络媒体 ProPublica 的记者给出来的结果不容乐观:这些包含患者隐私和诊疗方案的关键数据任人翻阅,缺乏基本的加密和保护,相关的执法和立法也是形势严峻。
这无疑为未来AI医疗的应用平添了一道障碍。
现状:毫无保护
在美国,有将近五百万人拥有医学影像相关数据。这些数据包括 CT ,核磁共振和X光片等相关图像及诊断报告。
除此之外,这些影像往往附带患者的个人信息,以及就诊医生、医院、病史等诊疗流信息。这些信息不但涉及隐私,还事关患者的生命安全。因此,这些信息需要严密的保护。
ProPublica 的记者对美国187台以及德国5台医学数据服务器的数据安全性进行了调查。他们惊讶的发现:这些数据几乎就是堆在网上,等着别人随便翻!
只要使用免费的相关软件,或者仅仅是个浏览器,你就可以翻阅这些私密信息,而这些信息连基础的密码都没有。
Spyglass Security 的网络安全研究专家和执行官 Jackie Singh 一针见血的指出,
“这都不算是黑客,这就是走空门。”
而且信息泄露的严重程度取决于提供医学服务的公司,一家公司一个样。
以为养老院,康复医院,临终关怀机构和监狱提供医学成像服务的 MobileXUSA 为例,通过简单的数据查询,超过一百万病人的影像数据、姓名生日、主治医师和既往病史就可以被轻松查到,而且是一条龙服务。这样的数据,与其说在“找”,不如说在“拿”。
除此之外,医疗影像的存档数据库也缺乏相关的安全预防措施。总部位于丹佛的 Offsite Image 公布了超过34万种人类和动物相关的医疗记录的名称和其他详细信息。Offsite Image 的一位高管告诉 ProPublica ,该公司向客户收取50美元的访问费,然后每次研究收费1美元。
Offsite Image 的网站写道,“您的数据对我们来说是安全可靠的。”
这句话的可信度显而易见。
问责:互踢皮球
这么严重的信息泄露,处理起来显然需要相关的法律依据。一些法学专家认为,这类信息泄露违反了健康保险流通与责任法案(HIPAA)。
这项法案在1996年颁布,紧随当时电子病例报告的东风,是医疗数据应用的奠基石。该法案明确提出,医疗健康服务的提供者和相关机构,对患者信息的隐私权承担法律责任。
虽然没有相关泄露信息被复制和转发的相关证据,但是信息泄露的恶性后果显然是可以预期的:
数字权利组织电子前沿基金会的安全研究员兼高级技术专家 Cooper Quintin 表示,
“医学信息在个人隐私方面十分重要,因为它太过敏感。它们可以在羞辱和敲诈方面被人利用。而这是极其不负责任的。”
在这件事情上,医学工作者也显得手足无措。美国麻省总医院放射科医学分析主任 Oleg Pianykh 表示,根据传统,医学影像软件涉及的患者隐私保护,应该由客户的计算机安全系统负责。
可是随着医学系统连入互联网并变的愈发复杂,这口安全大锅突然扔到了使用机构的网络管理员身上,Oleg Pianykh 在2016年发表在医学期刊的一篇研究论文中写道,“医疗安全突然只能靠自己了。”
制定了医学成像设备通信共享标准DICOM的医学影像技术联盟,其官员对信息泄露则做出了这番表态:他们承认有数百台影像数据服务器具直接连上了互联网,但他们认为责任在于运行者。
他们在一份声明中表示,“尽管只占一小部分,但是一些影像系统可能包含患者记录。这可能是系统的运营者的配置选择不当。”
前美国卫生与福利部隐私负责官员(HHS)Joy Pritts 表示,政府对患者隐私泄露的相关管并不强硬。她引用了HHS在4月份公布的公告,相关罚款从年度最高150万美元调整至25万美元。
这项惩罚被定义为“故意忽视纠正” ——这代表着公司对相关责任有意不负责或忽视的处理结果。她说,大公司不仅会将这些罚款视为开展业务的成本,而且会与政府谈判以减少这些罚款。记者2015年对相关企业的调查发现,HIPAA 法案的惯犯几乎没有后续惩罚。
应对:各方态度
各家公司对记者关于隐私泄露的调查的态度,也是各有不同。
MobilexUS 对安全问题表达了自己的关注。MobilexUSA 的母公司在一份声明中表示,“我们迅速改进了 ProPublica 发现的潜在漏洞,并立即开始彻底调查,”
医学影像技术联盟则认为他们的文章充分阐述了他们的态度:相关委员会认为其安全标准没有缺陷,而 Pianykh 认为他们是在偷换概念。他在2016年的文章中写道,“医疗数据安全从未在临床数据或设备中得到完善,相关问题很大程度上停留在理论层面,并未在实践中进行探讨。”
Jackie Singh 认为,确保计算机服务器的安全是标准协会,制造商和医院之间的“共同责任”。
但是在这件事上,最受伤的,应该还是患者。
Katharina Gaspari 曾在三年前接受了核磁共振检查,并表示她十分信任她的医生。但在记者向Gaspari展示她的医学图像被放在网上之后,她说:“现在,我不确定我还能不能信任我的医生了。”而存储她记录的德国系统,上周也被锁定。
近些年来,国内医疗领域的AI一直将影响分析作为关键的突破口,140多家医疗AI相关企业,120多家都在做医学影像相关业务。
不论是肺癌筛查以及眼底疾病检查的初始领域相关企业,还是深耕心血管影像的数坤科技,又或者是在乳腺癌筛查独辟蹊径的腾讯优图。都在摩拳擦掌,尝试开拓新市场。
△图为腾讯优图实验室总监 郑冶枫博士
不过这些产品的成熟应用,离不开庞大的患者数据集,这也成为了医疗AI的一大拦路虎。
一方面,除了肿瘤、免疫等特定疾病领域,很多其他疾病的影像数据集要么不公开,要么数据不完整。不成体系的数据体系阻碍了机器学习模型的训练,影响了AI影像产品的开发和完善。
就算是吴恩达团队在数量和诊断完整程度具有突破性意义的 ChestXray14 数据集,在结果判定层面,也因为缺乏医学层面的专业定义和分类,产生了没有医学价值的分类和预测。
另一方面,这些包括个人隐私的数据也具有较高的敏感性,如果缺乏相关的保护机制和调用标准。累的是医生,苦的是开发,伤的是患者。整个链条上所有人都是输家。
2017 年 7 月,DeepMind Streams 项目中的合作伙医院向 DeepMind 提供了 160 万份患者记录。根据英国数据监管机构裁定,双方信息共享协议非法。这引发了DeepMind近期的“人事地震”:联合创始人Mustafa Suleyman疑似被架空。
在相关立法方面,国内医疗AI行业也没有建立完善的行业规范和相关法案:像 HIPPA 那样的法案显然不能满足目前的行业发展,但是新法案的进一步定责也是一个难题。
想要建立一个安全性高的患者数据库,估计还有很长的一段路要走。
参考链接:
https://www.propublica.org/article/millions-of-americans-medical-images-and-data-are-available-on-the-internet
https://www.bloomberg.com/news/articles/2019-08-21/google-deepmind-co-founder-placed-on-leave-from-ai-lab
- 新物质?新材料?探索元素周期表,机器学习帮你找2019-09-22