【監管新時代倒數系列專題─1】

隨著生成式人工智慧(Generative AI)技術快速滲透醫療領域,一場關鍵的監管會議正悄然成形。11月6日,美國食品藥物管理局(FDA)所屬的數位健康諮詢委員會(DHAC)將舉行公開視訊會議,重點在「生成式 AI 啟用的數位心理健康醫療器材(Generative AI-Enabled Digital Mental Health Medical Devices)」。
這場會議被視為醫療AI新時代的風向球。因為這次聚焦的,不再是單純的影像判讀或輔助診斷,而是AI直接介入心理健康對話、治療建議與情緒支持的場景。當AI「說話」、幫助、甚至可能影響病人情緒時,監管邏輯必須被重新審慎、定義與規範。
為何此刻正是關鍵?一方面,美國心理健康資源長期短缺,Generation AI 的對話型、可擴展特質讓其在「可近性」上具有明顯優勢。《路透社》指出,「聊天機器人與虛擬治療師已迅速擴張,監管正努力追趕」。另一方面,與傳統醫材相比,生成式AI帶來更多未知風險:模型後續學習、幻覺(hallucination)、使用者依賴、倫理責任不透明等。
FDA官方公告指出,此次會議將「討論這些新醫療器材的益處、對健康的風險,以及可能考量的風險緩解措施,包括上市前證據與上市後監測」。這段話明確告訴我們,監管已進入「前置風險辨識+後續監控」的模式,而非僅僅批件審查。

四大核心議題提前鎖定
預期在會議議程中,我們可觀察到四個值得所有醫療AI新創、醫院、醫師及投資人關注的議題:
- 模型更新責任與持續學習機制。
生成式AI的特質在於其不斷微調與學習能力,這意味著早期版本與後續版本可能差異相當大。監管層將要求原廠提供模型版本管理、變更追蹤及效果評估流程,這與傳統一次性許可的醫療器材截然不同。
- 偏誤與安全監測(特別針對脆弱族群)。
心理健康工具的使用者往往是情緒、認知脆弱群體,如憂鬱症患者、自殺傾向者。若AI建議出錯,其後果可能比一般醫材更嚴重。學術界亦指出「對話型 AI 聊天機器人與心理疾病使用者之間可能形成反饋迴路」的風險。
- 臨床驗證路徑:證據與場景雙重挑戰。
從隨機對照試驗(RCT)到真實世界數據(RWD),生成式 AI 心理健康器材必須證明其「有效性」「安全性」之外,還需針對特定族群、跨度時間長的效果、異常場景處理能力。監管文件明確提出:「新型醫療器材可能具有新穎風險,隨著其複雜性提升,監管方式也應演進」。
- 使用者保護:標示、人工監督、對話留痕。
當AI 開始給予心理建議或情緒干預,使用者需清楚知道是在與 AI 互動。監管預期將要求包括:明確告知、留存對話記錄、人工介入機制、風險情境自動升級流程。這意味著醫師角色將從「決策者」轉為「把關者/詮釋者」,流程設計將被重新定義。

誰應提前準備?影響面向全盤鋪開
對新創或製造商,這是一場合規與市場同時起跑的競賽。必須提前建構模型版本控管、偏誤監測機制、臨床設計規劃,并且將用戶安全與對話透明性納入產品設計。
對醫院與醫師而言,AI 工具的採用不再只是技術選項,而是流程再造:從病人篩檢、AI 初步對話、人機共治療、人工覆核、危機升級。若沒有清晰流程,此類器材在臨床很可能被擱置。
對投資人,這場監管轉折意味著估值分化加劇。誰能過監管、誰能在臨床採用中被選中,將決定新創的命運。正如《STAT醫療科學新聞》報導:「監管機構正努力確保此類工具既能擴大可近性,也要確保其安全性」。
此會議雖為美國監管,但無疑具有全球示範效應。歐盟醫療器材規則(MDR)加上AI法案、英國藥品和健康產品監管局(MHRA)、亞洲多國的沙盒制度,都將從中察看新標準形成。對華人市場、新創公司而言,此次會議或許是「先知先覺」的機會。
監管合規只是「准入證」,真正能讓生成式AI心理健康工具走入臨床並被病患信任的,是流程的完善、風險的可控、使用者的安心。在11月的會議之後,這些工具將面臨「被批准」→「被使用」的真實考驗。對於《醫創全球》的讀者來說,這是觀察、準備、搶先布局的時刻。



