人工智能APP用您的數據預測您當前的精神狀態

米言看科技 2024-05-10 19:35:57
你的手機可以告訴你什麽時候抑郁,新興應用程序使用 AI 來猜測你什麽時候會難過。它們還能幫助您感覺更好嗎?人工智能驅動的應用程序可能能夠使用您的數據(包括自拍)來預測您當前的精神狀態。福特 是未來完美研究員,專注于新興技術、文化和思想的交叉點。她還對科學的過程、資助它的機構以及實現它的人著迷。 如果你有喉嚨痛,你可以接受一系列檢測——新冠病毒、呼吸道合胞病毒、鏈球菌、流感——並得到相當准確的診斷(甚至可能是治療)。即使您沒有生病,心率和血壓等生命體征也能讓醫生對您的身體健康狀況有適當的了解。 但是,對于心理健康來說,沒有公認的生命體征。醫生辦公室可能偶爾會進行心理健康檢查,或者在與治療師會面後留下筆記。不幸的是,人們總是對他們的治療師撒謊(一項研究估計,超過90%的人至少對治療師撒謊過一次),在他們本已有限的心理健康記錄中留下了漏洞。這是假設有人可以與治療師聯系——很多美國人生活在沒有足夠的心理健康專業人員可以四處走動的地區。 但絕大多數美國人確實可以使用手機。在過去的幾年裏,學術研究人員和初創公司已經構建了人工智能驅動的應用程序,這些應用程序使用手機、智能手表和社交媒體來發現抑郁症的警告信號。通過收集大量信息,人工智能模型可以學會發現一個人身體和行爲的細微變化,這些變化可能表明心理健康問題。許多數字心理健康應用程序只存在于研究領域,但有些可以下載——社交媒體平台和醫療保健提供者已經在部署其他形式的被動數據收集來標記潛在的危機(它可能在你沒有閱讀的服務條款中的某個地方)。 希望這些平台能夠幫助人們在最需要的時候以負擔得起的方式獲得精神衛生保健,並在危機時期迅速進行幹預。Ellipsis Health的聯合創始人兼首席醫療官阿拉托認爲,對數字心理健康解決方案的需求如此之大,僅靠醫療保健系統已經無法解決。“沒有技術,我們就無法處理我們的心理健康問題,”他說。 這些問題很重要:在過去幾年中,精神疾病的發病率飙升。大約29%的美國成年人在他們生命中的某個階段被診斷出患有抑郁症,美國國家心理健康研究所估計,近三分之一的美國成年人會在某個時候經曆焦慮症。 雖然手機經常被認爲是心理健康問題的原因,但它們也可以成爲解決方案的一部分——但前提是我們創造出可靠運行並降低意外傷害風險的技術。科技公司可以濫用從人們最脆弱的時刻收集的高度敏感數據,而幾乎沒有監管來阻止他們。數字心理健康應用程序開發人員仍然有很多工作要做,以贏得用戶的信任,但圍繞美國心理健康危機的風險足夠高,我們不應該因爲恐懼而自動駁回人工智能驅動的解決方案。 人工智能如何檢測抑郁症? 要被正式診斷爲抑郁症,某人需要至少連續兩周表現出至少五種症狀(如感到悲傷、對事物失去興趣或異常疲憊)。但達特茅斯學院蓋澤爾醫學院生物醫學數據科學和精神病學助理教授雅各布森認爲,“作爲一個領域,我們對抑郁症的看法是錯誤的。通過只尋找穩定的症狀,醫生可能會錯過抑郁症患者所經曆的日常潮起潮落。“這些抑郁症狀變化非常快,”雅各布森說,“我們的傳統治療方法通常非常非常緩慢。 即使是最虔誠的接受治療的人通常每周看一次治療師(而且療程起價約爲 100 美元,通常不在保險範圍內,每周一次對許多人來說已經成本過高)。2022 年的一項研究發現,只有 18.5% 的精神科醫生接受新患者,導致面對面預約的平均等待時間超過兩個月。但是你的智能手機(或你的健身追蹤器)可以記錄你的步數、心率、睡眠模式,甚至你的社交媒體使用情況,比單獨與治療師交談更全面地描繪你的心理健康狀況。 一種潛在的心理健康解決方案:在日常生活中從智能手機和可穿戴設備中收集數據,並使用這些數據來訓練人工智能模型,以預測您的情緒何時會下降。在雅各布森今年2月與人合著的一項研究中,研究人員開發了一款名爲MoodCapture的抑郁症檢測應用程序,該應用程序利用用戶的前置攝像頭在回答有關情緒的問題時自動自拍,參與者每天完成三次調查。人工智能模型將他們的反應(對悲傷和絕望等當下的感受進行評分)與這些圖片相關聯,使用他們的面部特征和其他背景線索(如照明和背景物體)來預測抑郁症的早期迹象。(舉個例子:幾乎每次完成調查時,參與者看起來都好像躺在床上,他更有可能抑郁。 該模型不會試圖將某些面部特征標記爲抑郁。相反,該模型會尋找每個用戶的細微變化,例如他們的面部表情,或者他們傾向于如何握住手機。MoodCapture以大約75%的准確率准確地識別了抑郁症狀—這是第一次使用這種坦率的圖像以這種方式檢測精神疾病。 在這項研究中,研究人員只招募了已經被診斷出患有抑郁症的參與者,每張照片都標有參與者自己對抑郁症狀的評分。最終,該應用程序旨在使用用戶使用面部識別解鎖手機時拍攝的照片,每天加起來有數百張圖像。這些數據與其他被動收集的電話數據(如睡眠時間、短信和社交媒體帖子)相結合,可以評估用戶未經過濾、毫無防備的感受。你可以告訴你的治療師任何你想說的話,但足夠的數據可以揭示真相。 該應用程序還遠非完美。MoodCapture在預測白人抑郁症方面更准確,因爲大多數研究參與者都是白人女性——一般來說,人工智能模型的好壞取決于他們提供的訓練數據。像 MoodCapture 這樣的研究應用程序需要獲得所有參與者的知情同意,大學研究由校園的機構審查委員會監督,但如果在未經用戶同意的情況下收集敏感數據,持續監控可能會讓人感到毛骨悚然或違規。明尼蘇達大學計算機科學與工程學助理教授錢塞勒說,在知情同意的情況下,這樣的工具可以“非常好,因爲它們會注意到你自己可能沒有注意到的事情。 在移動醫療指數和導航數據庫(MIND)認可的大約10000個(並且還在增加)數字心理健康應用程序中,其中18個被動收集用戶數據。與研究應用程序MoodCapture不同,沒有一個使用自動捕獲的自拍照(或任何類型的數據)來預測用戶是否抑郁。一些流行的、評價很高的應用程序,如Bearable——由患有慢性疾病的人制作,從雙相情感障礙到纖維肌痛——隨著時間的推移跟蹤定制的症狀集合,部分是通過被動地從可穿戴設備收集數據。“你無法管理你無法衡量的東西,”阿拉托說。 不過,這些追蹤器應用程序更像是日記而不是預測器——它們不會對他們收集的信息做任何事情,只是將其展示給用戶,讓他們更好地了解生活方式因素(比如他們吃什麽,或者他們睡了多少)如何影響他們的症狀。一些患者會截取他們的應用程序數據以向他們的醫生展示,以便他們提供更明智的建議。其他工具,如Ellipsis Health語音傳感器,根本不是可下載的應用程序。相反,它們在幕後作爲“臨床決策支持工具”運作,旨在通過與醫療保健提供者進行例行通話時的聲音來預測某人的抑郁和焦慮水平。像 Meta 這樣的大型科技公司使用人工智能來標記,有時甚至刪除有關自殘和自殺的帖子。 一些研究人員希望將被動數據收集提升到更激進的程度。新加坡南洋理工大學的認知神經科學家克裏斯托普洛斯共同領導了2021年的一項研究,該研究根據Fitbit數據預測了抑郁症的風險。在一份新聞稿中,他表達了他對更普遍的數據收集的願景,“這些信號可以與智能建築甚至智能城市計劃相結合:想象一下,一家醫院或一個軍事單位可以使用這些信號來識別處于危險中的人。這就提出了一個明顯的問題:在這個想象中的未來世界中,如果全知算法認爲你很傷心,會發生什麽? 僅在過去五年中,人工智能就取得了如此大的進步,可以毫不誇張地說,在未來十年中,情緒預測應用程序將存在——如果初步測試繼續看起來很有希望,它們甚至可能起作用。無論這究竟是讓你松了一口氣還是讓你感到恐懼,隨著情緒預測數字健康工具開始從學術研究環境轉移到應用商店,開發人員和監管機構需要認真考慮他們將如何處理他們收集的信息。 所以,你的手機認爲你很沮喪——現在怎麽辦?這要看情況,校長說。幹預措施需要取得謹慎的平衡:確保用戶的安全,同時又不“完全抹去他們生活中的重要部分”。例如,禁止某人在Instagram上發布有關自殘的內容,可能會切斷某人與有價值的支持網絡的聯系,弊大于利。Chancellor說,應用程序提供用戶真正想要的支持的最佳方式是詢問他們,任何數字心理健康平台都可以是合乎道德的,“只要人們有能力同意使用它。她強調,“如果沒有得到當事人的同意,那麽幹預是什麽都無關緊要——這可能是不合適的。 像雅各布森和錢瑟勒這樣的學術研究人員必須跳過許多監管障礙來測試他們的數字心理健康工具。但對于科技公司來說,這些障礙並不存在。美國健康保險流通與責任法案等法律並未明確涵蓋可用于推斷某人健康狀況的非臨床數據,例如社交媒體帖子、手機使用模式或自拍。 即使一家公司表示他們將用戶數據視爲受保護的健康信息 (PHI),它也不受聯邦法律的保護——只有當數據來自“醫療保健服務事件”(如醫療記錄或醫院賬單)時,才有資格成爲 PHI。通過 Woebot 和 BetterHelp 等平台進行的文本對話可能會讓人感到保密,但關于數據隱私的關鍵警告(雖然公司可以選擇遵守 HIPAA,但用戶數據在法律上不被歸類爲受保護的健康信息)通常會出現在用戶最不可能看到的地方——比如幾乎沒有人閱讀的冗長服務協議條款。例如,Woebot 有一個特別適合讀者的服務條款,但高達 5625 個單詞,它仍然遠遠超出了大多數人願意參與的範圍。 雅各布森說:“沒有太多的法規可以阻止人們基本上將所有這些嵌入到服務條款協議中。喬杜裏對此大笑。“老實說,”她告訴我,“我已經研究這些平台將近二十年了。我仍然不明白這些服務條款在說什麽。 “我們需要確保我們都點擊'我同意'的服務條款實際上是非專業人士可以理解的形式,”德喬杜裏說。上個月,Choudhury研究小組的研究生Sachin Pendse與人合著了關于開發人員如何創建“同意轉發”應用程序的指南,這些應用程序可以主動贏得用戶的信任。這個想法借鑒了“是即是”的肯定性同意模型,因爲FRYS在這裏也適用:用戶對數據使用的同意應該始終是自由的、可逆的、知情的、熱情的和具體的。 但是,當算法(如人類)不可避免地會犯錯誤時,即使是最同意的應用程序也可能做一些用戶不想要的事情。賭注可能很高。例如,在 2018 年,Meta 算法使用來自 Messenger 和 WhatsApp 的文本數據來檢測表達自殺意圖的消息,觸發了一千多次“健康檢查”,即未經同意的主動救援。關于他們的算法如何工作的具體細節很少是公開的。Meta 澄清說,他們使用基于大量訓練示例的模式識別技術,而不是簡單地標記與死亡或悲傷相關的單詞——但除此之外沒有太多。 這些幹預通常涉及警察(他們攜帶武器,並不總是接受危機幹預培訓),並且可能會使已經處于危機中的人的情況變得更糟(特別是如果他們認爲他們只是在與值得信賴的朋友聊天,而不是自殺熱線)。“我們永遠無法保證事情總是安全的,但至少,我們需要做相反的事情:確保它們不是不安全的,”德喬杜裏說。 一些大型數字心理健康組織因不負責任地處理用戶數據而面臨訴訟。2022 年,最大的心理健康支持熱線之一 Crisis Text Line被發現使用來自人們在線文本對話的數據來訓練客戶服務聊天機器人,用于他們的營利性衍生産品 Loris。去年,美國聯邦貿易委員會下令BetterHelp支付7萬美元的罰款,原因是該公司被指控與Facebook、Snapchat、Pinterest和廣告公司Criteo共享人們的個人健康數據。 Chancellor表示,雖然像BetterHelp這樣的公司可能不是惡意運營的——醫療系統速度慢、人手不足、成本高昂,而且在許多方面,他們正試圖幫助人們克服這些障礙——但他們需要更清楚地與客戶溝通他們的數據隱私政策。雖然初創公司可以選擇將人們的個人信息出售給第三方,但Chancellor說,“沒有治療師會把你的數據放在那裏給廣告商。如果您或您認識的任何人正在考慮自殺或自殘,或者焦慮、沮喪、心煩意亂或需要交談,有人想提供幫助。 在美國:危機短信專線:免費向741741發送短信 危機,保密的危機咨詢 國家預防自殺生命線:1-800-273-8255 特雷弗項目:1-866-488-7386 有朝一日,Chancellor希望精神衛生保健的結構將更像今天的癌症護理,人們從專家團隊(不是所有的醫生)那裏得到支持,包括朋友和家人。她將技術平台視爲護理的“額外層”——至少目前是這樣,這是服務不足社區的人們唯一可用的護理形式之一。即使所有的道德和技術問題都得到了解決,數字健康平台也完全按照預期工作,它們仍然由機器驅動。“人際關系對于幫助人們克服心理健康問題仍然非常有價值和核心,”喬杜裏告訴我。“我不認爲它永遠可以被取代。當被問及完美的心理健康應用程序會是什麽樣子時,她只是說,“我希望它不會假裝是人類。
0 阅读:0

米言看科技

簡介:感謝大家的關注