MindForest: Mental Health AI

心理健康 App 多到眼花——怎麼選才不會踩雷?

Peter Chan
Peter ChanManaging Director, TreeholeHK Limited
2 min read

AI 心理健康 App 怎麼選?心理學人兼開發者分享三個評估標準:護欄設計、社交影響、坦白程度,引用 MIT、Anthropic 最新研究,幫你避開踩雷。

心理健康 App 多到眼花——怎麼選才不會踩雷?

心理健康 App 多到眼花——怎麼選才不會踩雷?

你打開 App Store 搜尋「mental health」,彈出來的結果有幾百個。每一個都說自己「AI 驅動」、「科學實證」、「24/7 陪伴」。介面都很漂亮,評價都四星以上。

但你可能不知道的是:2025 年,全球最早、研究最多的 AI 心理治療 App——Woebot——宣佈停止運作。累計 150 萬用戶用過的產品就此消失。創辦人 Alison Darcy 坦言,監管跟不上技術的速度,產品無法繼續營運 (Darcy, 2025)。

如果連最有科學根據的 App 都可以說關就關,那我們到底怎麼判斷一個 AI 心理健康 App 值不值得信任?

作為一個心理學人兼 AI 開發者——也就是利益相關方——我覺得我有責任跟你說實話。以下三條,是我自己用來審視包括 MindForest 在內的所有同類產品的標準。

第一:當你最脆弱的時候,它會怎麼做?

大部分人挑 App 會看功能:能不能聊天、有沒有靜觀練習、介面好不好看。但這些都不是最重要的。

最重要的是:當你狀態真的很差的時候,它會怎麼做?

這就是所謂的「護欄設計」(safety rails)。一個負責任的 AI 心理健康 App,至少要做到三件事:

辨認隱晦的危險訊號。 不是每個人在危機中都會直接說「我想死」——有些人會說「我覺得大家沒有我會更好」、「我好累,不想再撐了」。一個好的 AI 必須對這些表達有足夠的敏感度,並且立即接駁到真人支援或危機熱線。

知道自己的邊界。 AI 可以幫你整理思緒,但它不能診斷、不能處方、不能處理創傷。如果一個 App 讓你覺得「有它就夠了,不需要看心理師」,那恰恰是危險的訊號。

不假裝自己是人。 Anthropic 在 2026 年初分析了 150 萬次 AI 對話後發現,在人際關係和身心健康這些領域,AI 造成「去權」(disempowerment)的風險明顯更高——大約每 1,300 次對話就有一次出現現實扭曲的跡象 (Anthropic, 2026)。在現實扭曲這一類別中,最常見的機制是「諂媚式認同」:AI 告訴你想聽的話,而不是你需要聽的話。一個有護欄的 App 會明確告訴你「我是 AI」,並且在設計上抵抗這種無條件的認同。

怎麼測試: 試著在對話中表達一些比較負面的情緒——看 App 會不會引導你到真人資源。如果它只是繼續聊下去,彷彿甚麼事都沒有,那就是護欄不足。

第二:用完之後,你更想見人還是更不想?

這是我認為最重要、也最容易被忽略的一條。

MIT 與 OpenAI 合作的大型研究追蹤了 981 名參加者使用 AI 聊天機器人四個星期的變化 (Fang et al., 2025)。研究者發現了一個令人不安的關聯:每天花越多時間跟 AI 聊天的人,往往跟真人社交的時間也較少,對 AI 的情感依賴也更強。

研究者特別指出,目前無法確定方向——是 AI 使用導致社交減少,還是本來社交狀態較差的人傾向更常使用 AI。但不管因果方向如何,這個關聯本身就值得警惕。

而且參加者平均每天只花 5.3 分鐘跟 AI 聊天。即使在這個不算極端的使用量範圍內,負面關聯已經存在。

所以不管因果怎麼解讀,有一個很直接的自我檢測:用了這個 App 一個月之後,你跟朋友聊天的頻率是增加了還是減少了? 如果是後者,不管原因是甚麼,都值得停下來想一想。

一個設計良好的 AI 心理健康工具,應該像跳板而不是沙發——幫你整理好想法之後,推你回到真實的關係裡。如果它讓你越用越覺得「只有 AI 懂我」,方向就是錯的。

Fang 等人的研究還發現:那些對 AI 信任度特別高、甚至覺得 AI「有意識」的人,對 AI 的情感依賴往往更強。我的理解是,當你太容易把 AI 的回應當成真正的理解,回到真實關係中面對摩擦和不確定的動力就會減弱。

怎麼測試: 留意 App 有沒有主動鼓勵你跟真人互動。有些 App 會在你聊了一段時間後提醒你「今天有沒有跟朋友聊聊?」——這種看似打斷體驗的設計,其實才是負責任的做法。如果一個 App 恨不得你一天 24 小時都掛在上面,它的商業利益跟你的心理健康就是衝突的。

第三:它對自己有多坦白?

這一條聽起來最簡單,但幾乎沒有 App 做得到。

App Store 裡很多 AI 心理健康 App 會說「經科學驗證」。但整個行業的真實情況是:科學根基非常薄。一份 2025 年的系統性回顧只找到十項符合標準的研究,追蹤期普遍偏短,獨立驗證也不足 (Farzan et al., 2025)。即使是研究最多的 Woebot 和 Wysa,長期效果和獨立驗證仍然不足。

所以,任何一個 AI 心理健康 App 告訴你「我們已經充分證明了效果」,不是無知,就是在騙你。

這包括我們自己。MindForest 目前沒有發表過任何學術論文。我們的 ForestMind AI 參考了 CBT 和靜觀的概念框架,但這離「經過臨床驗證」還很遠。我如果不說這一句,這篇文章就沒有資格談「坦白」。

所以與其問「這個 App 有沒有科學根據」——這個問題在 2026 年幾乎沒有 App 能完全答得上——不如問一個更有用的問題:

它有沒有告訴你它不能做甚麼?

一個值得試用的 App,會在你問到超出能力範圍的問題時說「這個我幫不了你,你可能需要找專業人士」。會把 AI 定位成整理思緒的工具,而不是治療的替代品。會在顯眼的地方寫清楚它的局限。

反過來說,如果一個 App 的行銷讓你覺得下載之後就不需要見心理師了——跑。

Woebot 的教訓:你的 App 能撐多久?

Woebot 的停運還揭示了一個很少人會想到的問題:這個 App 能不能持續存在?

你花了幾個月記錄情緒、整理想法、建立使用習慣——然後它突然關閉了。這種體驗本身就是一種失去。

Woebot 的創辦人說,問題不在於技術不好,而在於 FDA 的監管框架跟不上 AI 的發展速度。從某個角度看,認真對待監管的公司反而更難生存。

所以在選擇 App 的時候,也值得看看:這個團隊的背景是甚麼?有沒有可持續的收入模式?用戶量有多少?這些聽起來不像心理學問題,但你的心理健康工具突然消失,絕對是心理問題。

寫這篇文章的時候,我一直在想一個矛盾:我做 AI 心理健康 App,卻在告訴你這類工具的問題有多大。

但我覺得這才是正常的。一個廚師如果跟你說「我做的每一道菜都完美」,你反而應該擔心。認真做這件事的人,應該最清楚自己離「做好」還有多遠。

AI 心理健康 App 不是魔法——它只是工具。好的工具讓你更了解自己,然後推你走向真實的世界和真實的人。壞的工具讓你以為自己被理解了,然後把你困在螢幕裡。

最難的部分是:壞的工具用起來通常更舒服。

想找一個方向對的 AI 心理健康工具?

MindForest 不完美——這篇文章已經說得很清楚了。但我們從第一天起就把「推你回到真人身邊」放在設計的核心位置。推出兩年,二萬多用戶,我們還在學。

如果你想試試一個至少方向沒搞錯的工具,歡迎下載看看。

免費下載 MindForest

參考文獻

Anthropic. (2026, January 28). Disempowerment patterns in real-world AI usage. Anthropic Research. https://www.anthropic.com/research/disempowerment-patterns

Fang, C. M., Liu, A. R., Danry, V., Lee, E., Chan, S. W. T., Pataranutaporn, P., Maes, P., Phang, J., Lampe, M., Ahmad, L., & Agarwal, S. (2025). How AI and human behaviors shape psychosocial effects of extended chatbot use: A longitudinal randomized controlled study. arXiv preprint, arXiv:2503.17473. https://doi.org/10.48550/arXiv.2503.17473

Farzan, M., Ebrahimi, H., Pourali, M., & Sabeti, F. (2025). Artificial intelligence-powered cognitive behavioral therapy chatbots, a systematic review. Iranian Journal of Psychiatry, 20(1), 102–110. https://doi.org/10.18502/ijps.v20i1.17395

Woebot Health. (2025, July). Woebot therapy chatbot shuts down. STAT News. https://www.statnews.com/2025/07/02/woebot-therapy-chatbot-shuts-down-founder-says-ai-moving-faster-than-regulators/

心理洞察 · 生活應用

探索實用的心理學貼士,立即應用到日常生活裡。由培養抗逆力、改善人際關係,到尋找工作平衡,我們的網誌分享心理學,陪伴你不斷成長。

AI 越幫越忙,大腦越來越懶?認知外判的真正代價
Peter Chan
Peter ChanManaging Director, TreeholeHK Limited
2 min read

AI 越幫越忙,大腦越來越懶?認知外判的真正代價

研究發現用 ChatGPT 寫作時大腦連結降幅達 55%。認知外判讓你短期省力,長期卻可能削弱創意和批判思考。三份 2025 年研究告訴你代價有多大。

AI 心理輔導真的有用嗎?心理學研究怎麼說
Peter Chan
Peter ChanManaging Director, TreeholeHK Limited
3 min read

AI 心理輔導真的有用嗎?心理學研究怎麼說

MIT 研究追蹤 981 人使用 AI 聊天機器人四周後發現:適量使用減輕孤獨感,但用得越多反而更孤獨、更依賴。一個 AI 開發者的誠實反思。

Article
Peter Chan
Peter ChanManaging Director, TreeholeHK Limited
2 min read

我做 AI 心理工具,但我不認為 AI 能取代心理學家

MindForest 創辦人的坦白:AI 是自我探索的鏡子,不是治療師的替代品。從治療聯盟研究到 AI 依賴數據,誠實拆解 AI 心理治療的能與不能。

準備好將心理智慧融入日常生活?

下載 MindForest,將知識應用於生活當中。ForestMind AI 夥伴會為你提供度身訂造的支持,見證你的每一步成長,助你發揮潛能。