當AI成為你的醫生……

韓璐 4年前 (2021-07-02)

以下6點,是對AI醫生的基本訴求。

“大數據和人工智能極大提高了我們對新冠肺炎的診斷、預測和治療水平。”鐘南山此前如是說。

至于怎么提高的,他也舉了幾個案例,比如通過1000多個全國新冠肺炎患者的大數據了解到潛伏期、臨床癥狀,為新冠肺炎早期癥狀鑒別提供幫助;又比如根據大數據生成新冠肺炎疫情預測模型,為政策制定提供重要依據……

不得不承認,大數據和AI對醫療產業的助力是有實際成效的,這也難怪谷歌、IBM、騰訊、百度和阿里等科技巨頭也創企蜂擁而上。但是,金無足赤、人無完人,AI落地醫療有時候也會犯錯。

也因此,WHO找來了20位專家,并花費2年時間為AI量身定制了一套“醫生準則”。

WHO:AI落地健康領域,要遵循6大關鍵原則

WHO在報告中強調了AI在健康領域的前景,以及幫助醫生治療病人的潛力,并指出有幾十種潛在的方式可以將人工智能應用于醫療保健。

但是,一旦AI沒有被仔細開發和實施,最好的結果是無法達到預期效果,最差的結果這就是造成傷害了。

因此,WHO出手為AI在健康領域的落地制定了指南,其中要點原則有6個:

1.保護自主權——人類應該對所有健康決定進行監督并擁有最終決定權。這些決定不應該完全由機器做出,醫生應該能夠在任何時候推翻它們。未經同意,人工智能不應該被用來指導某人的醫療護理,而且他們的數據應該受到保護;

2.促進人類安全——開發人員應持續監測任何人工智能工具,以確保它們按規定工作,不會造成傷害;

3.確保透明度——開發者應該公布有關人工智能工具設計的信息。對這些系統的一個經常性批評是,它們是 "黑盒子",研究人員和醫生很難知道它們是如何做出決定的。世衛組織希望看到足夠的透明度,以便用戶和監管機構能夠充分審計和理解它們;

4.培養問責制——當人工智能技術出現問題時,比如工具做出的決定導致病人受到傷害時,應該有機制來確定誰應該負責(比如制造商和臨床用戶);

5.確保公平——要確保工具有多種語言版本,并在不同的數據集上進行訓練。在過去的幾年里,對普通健康算法的仔細審查發現,一些算法中存在種族偏見;

6.推廣可持續發展的人工智能——開發者應該能夠定期更新他們的工具,如果一個工具看起來沒有效果,機構應該有辦法進行調整。機構或公司也應該只引進可以修復的工具,即使是在資源不足的衛生系統。

黑盒子、開錯藥、數據隱私……6點原則背后AI的另一面

在報告中,WHO明確表示,希望這6項原則能夠成為政府、開發商和監管機構處理AI的技術。但是當我們反過來看,就會發現,不少情況早已經出現。

比如自主權,該問題是科技公司利用AI賦能健康產業中最常發生的隱患。比如谷歌母公司Alphabet旗下的DeepMind就曾發生一件“丑聞”,并因此在英國被判違法:

2016年,英國醫療服務體系(NHS)在與DeepMind的一項醫學實驗合作中,向后者提供了約160萬名患者的詳細資料,用于開發和完善一個急性腎損傷診斷和檢測系統。但是,他們的一切操作是在患者不知道的前提下進行的,且也沒有告知患者醫療記錄數據的使用方式。

最終在2017年,英國最高隱私保護監管部門裁定,DeepMind的該項醫學實驗違反了英國的數據保護法。

需要注意的是,雖然丑聞被曝出,但是谷歌方面在之后的幾年內并沒有停止這種侵犯用戶自主權的行為,包括在2017年,被指控通過芝加哥大學醫學中心不當訪問數十萬份醫療記錄,以及在2018年被曝出的“夜鶯計劃”——醫生和患者毫不知情的情況下,在21個州秘密收集數百萬份包括醫生診斷、住院記錄、姓名和出生日期等數據的患者病歷及健康歷史,且有部分谷歌員工有權訪問這些敏感數據。

而除了自主權,站在患者的角度,他們還擔心安全問題,包括診斷和檢測過程的安全,以及用藥的安全。

其實,這并不是無來由的擔心,因為這一情況已經在現實生活中發生了。就在2018年,此時,IBM還在如火如荼的基于AI系統Watson發展自己的醫療業務,但是Watson卻被曝出為一位有嚴重出血可能的肺癌患者,開出了容易導致大出血的藥物。

當然,開錯藥的情況也有在人類醫生身上發生過,但正如第三點原則中提到的“黑盒子”,AI醫生開藥的邏輯是基于過往海量病歷數據訓練出來的,但是具體過程并不會展現給人類醫生,而對于患者而言,這顯然會帶來一種“不安全感”。

此外,雖然AI醫療賽道中鮮少被報道,但在其他像智能語音助手等賽道中,如同WHO所擔心的那樣,諸如種族歧視、性別歧視等不可控因素已經出現。

不可否認,AI的作用是潛力無限的,包括用AI來篩選檢測病灶、幫助患者監測自己身體的各項數據、追蹤新冠等疫情的爆發等等。但當我們從理論回到現實,即便沒有WHO的6項原則,即便是頭部的公司,在利用AI賦能健康產業這條道路上,也是走得磕磕絆絆。

在AI醫療方向,科技公司們正節節敗退

追溯科技公司在AI醫療賽道上的敗退,最先為人熟知的是曾經的領頭羊IBM。

IBM旗下的Watson Health部門,主要利用AI幫助醫院、保險公司和制藥商管理數據、輔助診斷。

但在這之后,6年時間年收入10億、8年內25個代表合作項目僅有5個推出產品等事實狠狠“扇醒”了IBM,再加上前面提到的開錯藥等“丑聞”,Watson Health在之后幾年內的存在感逐漸減弱,最終在今年2月份,IBM宣布將對外出售該部門。一代創新項目“黯然落幕”。

而說到與IBM在AI醫療賽道稱得上并肩前行的公司和項目,還有谷歌和它的Google Health。與Watson Health一樣,Google Health也是背靠科技巨頭,自誕生起就有著無數資源,但也擋不住它與Watson Health類似的命運。

3年前,谷歌成立Google Health,合并了DeepMind旗下的健康部門DeepMind Health和負責推進“Streams”醫療APP的團隊,同時還從蓋辛格醫療中心挖來了David Feinberg就任主管,后者是全美最好的成人??漆t院之一。

一切都是那么的美好,但現實情況卻是,3年過去了,這一業務依舊處于虧損狀態,而主力推廣的糖尿病視網膜病變篩查業務,也因為檢測照片不達算法檢測要求而導致準確率不如預期,且極度依賴網絡速率的特性也讓這一產品落地后在效率上大打折扣。

現如今,Google Health在6月份被曝出將進行大規模裁員重組,并且做好了重組后依舊不賺錢的準備。

可以看到,不管是IBM,還是谷歌,他們在健康業務上的癥結主要在于兩點,分別是AI系統落地后效果不如預期,以及不賺錢。

事實上,這兩點對國內AI醫療公司的阻礙也同樣適用。比如盈利問題,如今已有多家公司因為盈利難等問題正面臨資金斷鏈、業務收縮或重組等現實問題。

而更為值得令人深思的是,AI醫療的可行與可信。

針對這一點,AI大牛吳恩達曾在去年這樣說,醫療領域AI研究的算法難以投入到生產,因為以部分數據訓練出的模型,難以泛化到其他情況。

這句話揭露的是當前AI醫療算法模型過程中數據規模、規范性等方面的問題。

比如谷歌,雖然其健康部門還沒有落到與IBM Watson一樣的境遇,且也已經做好了不賺錢的準備。但是,成熟技術與盈利之間終究存在著千絲萬縷的牽連。盈利問題到最后終究會被再次提出,而這需要以技術成熟并落地為前提。

最后,記得關注微信公眾號:鎂客網(im2maker),更多干貨在等你!

鎂客網


科技 | 人文 | 行業

微信ID:im2maker
長按識別二維碼關注

硬科技產業媒體

關注技術驅動創新

分享到