<p class="ql-block">AI心理健康市場火爆增長,下一波浪潮能否帶來實效?</p><p class="ql-block">頭像</p><p class="ql-block">至頂科技</p><p class="ql-block">2025年6月30日10:09北京</p><p class="ql-block">關注</p><p class="ql-block">2025年4月的一個午夜,阿曼達·卡斯韋爾發(fā)現(xiàn)自己正處于恐慌發(fā)作的邊緣。在無人可求助、感到墻壁逼近的情況下,她打開了ChatGPT。正如她在《Tom's Guide》上所寫的,這個AI聊天機器人冷靜地回應了她,引導她進行一系列呼吸技巧和心理穩(wěn)定練習。至少在那個時刻,這起到了作用。</p><p class="ql-block"><br></p><p class="ql-block">卡斯韋爾并不孤單?!渡虡I(yè)內幕》早前報道稱,越來越多的美國人正在求助于ChatGPT等AI聊天機器人尋求情感支持,不是作為新奇事物,而是作為生命線。一項針對Reddit用戶的最新調查發(fā)現(xiàn),許多人報告使用ChatGPT和類似工具來應對情感壓力。</p><p class="ql-block"><br></p><p class="ql-block">這些數(shù)據(jù)描繪了一幅充滿希望的畫面:AI在傳統(tǒng)心理健康護理無法觸及的地方介入。但它們也引發(fā)了一個更深層的問題——這些工具是否真的有幫助。</p><p class="ql-block"><br></p><p class="ql-block">心理健康AI的十億美元投注</p><p class="ql-block"><br></p><p class="ql-block">AI驅動的心理健康工具無處不在——有些嵌入員工援助項目中,其他則打包成獨立應用或生產(chǎn)力伴侶。根據(jù)Rock Health的數(shù)據(jù),僅在2024年上半年,投資者就向全球AI心理健康初創(chuàng)公司投入了近7億美元,這是所有數(shù)字醫(yī)療細分領域中最多的。</p><p class="ql-block"><br></p><p class="ql-block">需求是真實存在的。根據(jù)世界衛(wèi)生組織的數(shù)據(jù),抑郁癥和焦慮癥等心理健康狀況每年因生產(chǎn)力損失給全球經(jīng)濟造成超過1萬億美元的損失。根據(jù)CDC的數(shù)據(jù),2022年超過五分之一的45歲以下美國成年人報告出現(xiàn)癥狀。然而,許多人負擔不起治療費用或被困在等待名單上數(shù)周——留下了AI工具越來越希望填補的護理空白。</p><p class="ql-block"><br></p><p class="ql-block">像Blissbot.ai這樣的公司正試圖做到這一點。該公司由莎拉·王創(chuàng)立——她是前Meta和TikTok技術負責人,曾為核心產(chǎn)品和全球心理健康項目構建AI系統(tǒng)——BlissBot融合了神經(jīng)科學、情感韌性訓練和AI,提供她所稱的"可擴展的治療系統(tǒng)"。</p><p class="ql-block"><br></p><p class="ql-block">"心理健康是我們這一代人最大的未滿足需求,"王解釋道。"AI為我們提供了第一個真正的機會,讓治療變得可擴展、個性化并且人人可及。"</p><p class="ql-block"><br></p><p class="ql-block">她說,Blissbot從零開始設計為AI原生平臺,與現(xiàn)有工具將心理健康模型改裝到通用助手中形成對比。在內部,公司正在探索使用量子啟發(fā)算法來優(yōu)化心理健康診斷,盡管這些早期聲明尚未經(jīng)過同行評議。它還采用隱私設計原則,讓用戶控制他們的敏感數(shù)據(jù)。</p><p class="ql-block"><br></p><p class="ql-block">"我們已經(jīng)用AI擴展了商業(yè)和內容,"王補充道。"現(xiàn)在是時候擴展治療了。"</p><p class="ql-block"><br></p><p class="ql-block">Blissbot在這一轉變中并不孤單。其他公司,如Wysa、Woebot Health和Innerworld,也在將基于證據(jù)的心理學框架整合到他們的平臺中。雖然每家公司采取不同的方法,但它們都有一個共同目標:提供有意義的心理健康結果。</p><p class="ql-block"><br></p><p class="ql-block">為什么結果仍然滯后</p><p class="ql-block"><br></p><p class="ql-block">盡管創(chuàng)新蓬勃發(fā)展,心理健康專家警告說,今天部署的許多AI仍然沒有聲稱的那么有效。</p><p class="ql-block"><br></p><p class="ql-block">"許多AI心理健康工具創(chuàng)造了支持的幻覺,"擁有心理學背景的信息安全專家芬索·理查德說。"但如果它們不具適應性、臨床基礎,也不提供情境感知支持,就有可能讓用戶情況更糟——特別是在真正脆弱的時刻。"</p><p class="ql-block"><br></p><p class="ql-block">即使AI平臺顯示出前景,理查德也警告說結果仍然難以捉摸,指出AI感知的權威性可能誤導脆弱用戶信任有缺陷的建議,特別是當平臺對其限制不透明或不受執(zhí)業(yè)專業(yè)人士監(jiān)督時。</p><p class="ql-block"><br></p><p class="ql-block">王呼應了這些擔憂,引用了《醫(yī)學互聯(lián)網(wǎng)研究雜志》最近的一項研究,該研究指出了AI驅動的心理健康工具在范圍和安全功能方面的局限性。</p><p class="ql-block"><br></p><p class="ql-block">監(jiān)管環(huán)境也在跟進。2025年初,歐盟的AI法案將與心理健康相關的AI歸類為"高風險",要求嚴格的透明度和安全措施。雖然美國尚未實施同等的防護措施,但法律專家警告說,如果系統(tǒng)在沒有臨床驗證的情況下提供治療指導,責任問題是不可避免的。</p><p class="ql-block"><br></p><p class="ql-block">對于將AI心理健康福利作為多元化、公平、包容(DEI)和留存策略一部分推出的公司來說,風險很高。如果工具不能推動結果,它們就有可能成為形象導向的解決方案,無法支持真正的福祉。</p><p class="ql-block"><br></p><p class="ql-block">然而,并非一切都是悲觀的。如果明智地使用,AI工具可以通過處理結構化的日常支持來幫助解放臨床醫(yī)生,讓他們專注于更深入、更復雜的護理——這是一種該領域許多人認為既可擴展又安全的混合模式。</p><p class="ql-block"><br></p><p class="ql-block">購買前應該問什么</p><p class="ql-block"><br></p><p class="ql-block">對于商業(yè)領袖來說,AI驅動的心理健康工具的吸引力是顯而易見的:更低的成本、即時可用性和時尚、數(shù)據(jù)友好的界面。但在沒有明確框架評估其影響的情況下采用這些工具可能會適得其反。</p><p class="ql-block"><br></p><p class="ql-block">那么公司應該問什么呢?</p><p class="ql-block"><br></p><p class="ql-block">王解釋說,在部署這些工具之前,公司應該質疑它們背后的證據(jù)。"它們是建立在認知行為療法(CBT)或接受與承諾療法(ACT)等經(jīng)過驗證的框架上,還是僅僅用AI面紗重新包裝健康趨勢?"她質疑道。</p><p class="ql-block"><br></p><p class="ql-block">"平臺是基于實際結果——如癥狀減少或長期行為改變——還是僅僅基于登錄次數(shù)來衡量成功?也許最關鍵的是,這些系統(tǒng)如何保護隱私、升級危機情景并適應不同文化、語言和神經(jīng)多樣性群體?"</p><p class="ql-block"><br></p><p class="ql-block">理查德同意,補充說"在提供支持工具和創(chuàng)造虛假保證之間有一條細線。如果系統(tǒng)不知道何時升級——或假設文化普遍性——它不僅僅是無效的。它是危險的。"</p><p class="ql-block"><br></p><p class="ql-block">王還強調參與度不應該是成功的衡量標準。"目標不是持續(xù)使用,"她說。"而是建立足夠強的韌性,讓人們最終能夠獨立站立。"她補充說,AI在心理健康中的真正經(jīng)濟學不是來自參與統(tǒng)計數(shù)據(jù)。相反,她說,它們稍后出現(xiàn)——在我們?yōu)闇\層互動、錯過信號和模仿護理但從未提供護理的工具付出的代價中。</p><p class="ql-block"><br></p><p class="ql-block">底線</p><p class="ql-block"><br></p><p class="ql-block">回到卡斯韋爾在恐慌發(fā)作期間咨詢ChatGPT的那個安靜時刻,AI沒有動搖。它像人類治療師一樣引導她度過了那個時刻。然而,它也沒有診斷、治療或跟進。它幫助某人度過了那個夜晚——這很重要。但隨著這些工具成為護理基礎設施的一部分,標準必須更高。</p><p class="ql-block"><br></p><p class="ql-block">正如卡斯韋爾指出的,"雖然治療師可以使用AI為患者尋求診斷或治療建議,但由于HIPAA要求,提供者必須注意不要泄露受保護的健康信息。"</p><p class="ql-block"><br></p><p class="ql-block">這特別是因為擴展同理心不僅僅是UX挑戰(zhàn)。這是對AI是否能真正理解——而不僅僅是模仿——人類情感復雜性的測試。對于投資于福祉未來的公司來說,問題不僅僅是AI是否能緩解危機時刻,而是它是否能負責任地、反復地、大規(guī)模地做到這一點。</p><p class="ql-block"><br></p><p class="ql-block">"這就是下一波心理健康創(chuàng)新將被評判的地方,"王說。"不是在同理心的模擬上,而是在真實和可衡量的人類結果上。"</p><p class="ql-block"><br></p>