Chatbots are now prescribing psychiatric drugs
一句話版本
猶他州而家試行畀 AI chatbot 喺好窄範圍內續配部分精神科維持藥,表面上係想平啲快啲,但真正值得我哋留意嘅係政府已經開始正式將部分臨床決定權交畀黑盒系統。
點解重要
- 政策訊號已經變咗
- 呢單唔只係一間新創公司推新產品,而係州政府正式批准 AI 參與處方續配;一旦有政府背書,之後其他州、其他醫療場景跟進嘅門檻會明顯降低。
- AI 角色由「建議」升級到「可執行」
- 好多醫療 AI 之前最多係分流、提醒、寫文件,今次係直接影響病人攞唔攞到藥,風險層級完全唔同,因為錯誤會即時落到真實治療流程。
- 試點刻意收窄,反而說明風險仲未過關
- 只准續配 15 種較低風險、已經由臨床醫生開過嘅維持藥,仲排除近期轉藥、調劑量、近一年住過精神科院、受控藥物等情況;即係連支持者都唔敢將系統放入複雜個案。
- 最需要精神科照護嘅人,其實大多未必受惠
- 被排除嘅包括需要更密切監察嘅個案,例如雙相情緒障礙、思覺失調、較高不穩定度患者;換句話講,系統主要服務本身已較穩定、較容易管理嘅病人。
- 「解決短缺」呢個說法要打個問號
- 文章引述精神科醫生質疑,呢類工具未必真係擴大照護覆蓋面,因為佢冇處理高風險、難接手、最缺資源嗰批病人,只係將低複雜度續配流程自動化。
- 商業模式同臨床流程綁得好緊
- Legion Health 用每月 19 美元訂閱提供「快、簡單」續藥,代表 AI 臨床權限已經唔再係純研究議題,而係直接進入收費服務,之後效率、成本、責任點平衡會變成實際市場問題。
- 安全機制主要靠前置篩選同升級處理
- 系統要求身份驗證、證明已有處方、回答症狀、副作用、自殺念頭、自殘、嚴重反應、懷孕等問題,一旦超出低風險條件就交畀真人;重點係安全唔係靠 AI 本身「識判斷」,而係靠規則把關。
- 人類覆核仍然係兜底,不是可有可無
- 病人同藥劑師都可以要求人工審查,亦規定每 10 次續配或 6 個月內要再見醫護一次;即係制度本身都承認,長期完全放手畀 AI 並不可接受。
- 精神科特別敏感,因為病情波動唔一定容易問卷化
- 精神健康狀態會受環境、依從性、共病、近期事件影響,單靠 chatbot 問答去判定「穩定」有天然限制,尤其係病人自述未必足夠反映真實風險。
- 透明度會成為核心爭議
- 文中提到醫生擔心系統不透明;一旦病人被錯誤續藥、漏咗紅旗,外界一定會追問模型點判、規則點設、邊個負責,呢啲都係黑盒系統最難交代嘅位。
- 監管正默認一個新原則:低風險先行、逐步外判
- 先由續配、低風險維持藥開始,說明政府可能會用「先 narrow pilot、再慢慢擴」嘅方式接受 AI 臨床權限,之後擴唔擴取決於事故率、成本同政治承受度。
我哋點睇
- 如果我哋做涉及高風險決策嘅系統,呢單最值得抄嘅唔係「AI 幫人做決定」,而係「範圍收窄、規則先行、真人兜底」呢套部署方法;任何一開始就想全自動處理複雜個案,都會好難過審。
- 我哋要預設外界唔會信黑盒,所以設計上應該優先準備可審計紀錄、升級條件、人工覆核入口,而唔係只講模型準確率;真正落地時,責任鏈清唔清楚比 demo 聰明更重要。
- 呢篇亦提醒我哋,唔好將「處理咗較簡單流程」誤當成「解決咗核心供應不足」;如果產品只覆蓋最穩定嗰批用戶,對整體服務缺口嘅改善可能有限,定位同成效指標要講清楚。