
AI 越幫越忙,大腦越來越懶?認知外判的真正代價
研究發現用 ChatGPT 寫作時大腦連結降幅達 55%。認知外判讓你短期省力,長期卻可能削弱創意和批判思考。三份 2025 年研究告訴你代價有多大。
AI 心理健康 App 怎麼選?心理學人兼開發者分享三個評估標準:護欄設計、社交影響、坦白程度,引用 MIT、Anthropic 最新研究,幫你避開踩雷。

你打開 App Store 搜尋「mental health」,彈出來的結果有幾百個。每一個都說自己「AI 驅動」、「科學實證」、「24/7 陪伴」。介面都很漂亮,評價都四星以上。
但你可能不知道的是:2025 年,全球最早、研究最多的 AI 心理治療 App——Woebot——宣佈停止運作。累計 150 萬用戶用過的產品就此消失。創辦人 Alison Darcy 坦言,監管跟不上技術的速度,產品無法繼續營運 (Darcy, 2025)。
如果連最有科學根據的 App 都可以說關就關,那我們到底怎麼判斷一個 AI 心理健康 App 值不值得信任?
作為一個心理學人兼 AI 開發者——也就是利益相關方——我覺得我有責任跟你說實話。以下三條,是我自己用來審視包括 MindForest 在內的所有同類產品的標準。
大部分人挑 App 會看功能:能不能聊天、有沒有靜觀練習、介面好不好看。但這些都不是最重要的。
最重要的是:當你狀態真的很差的時候,它會怎麼做?
這就是所謂的「護欄設計」(safety rails)。一個負責任的 AI 心理健康 App,至少要做到三件事:
辨認隱晦的危險訊號。 不是每個人在危機中都會直接說「我想死」——有些人會說「我覺得大家沒有我會更好」、「我好累,不想再撐了」。一個好的 AI 必須對這些表達有足夠的敏感度,並且立即接駁到真人支援或危機熱線。
知道自己的邊界。 AI 可以幫你整理思緒,但它不能診斷、不能處方、不能處理創傷。如果一個 App 讓你覺得「有它就夠了,不需要看心理師」,那恰恰是危險的訊號。
不假裝自己是人。 Anthropic 在 2026 年初分析了 150 萬次 AI 對話後發現,在人際關係和身心健康這些領域,AI 造成「去權」(disempowerment)的風險明顯更高——大約每 1,300 次對話就有一次出現現實扭曲的跡象 (Anthropic, 2026)。在現實扭曲這一類別中,最常見的機制是「諂媚式認同」:AI 告訴你想聽的話,而不是你需要聽的話。一個有護欄的 App 會明確告訴你「我是 AI」,並且在設計上抵抗這種無條件的認同。
怎麼測試: 試著在對話中表達一些比較負面的情緒——看 App 會不會引導你到真人資源。如果它只是繼續聊下去,彷彿甚麼事都沒有,那就是護欄不足。
這是我認為最重要、也最容易被忽略的一條。
MIT 與 OpenAI 合作的大型研究追蹤了 981 名參加者使用 AI 聊天機器人四個星期的變化 (Fang et al., 2025)。研究者發現了一個令人不安的關聯:每天花越多時間跟 AI 聊天的人,往往跟真人社交的時間也較少,對 AI 的情感依賴也更強。
研究者特別指出,目前無法確定方向——是 AI 使用導致社交減少,還是本來社交狀態較差的人傾向更常使用 AI。但不管因果方向如何,這個關聯本身就值得警惕。
而且參加者平均每天只花 5.3 分鐘跟 AI 聊天。即使在這個不算極端的使用量範圍內,負面關聯已經存在。
所以不管因果怎麼解讀,有一個很直接的自我檢測:用了這個 App 一個月之後,你跟朋友聊天的頻率是增加了還是減少了? 如果是後者,不管原因是甚麼,都值得停下來想一想。
一個設計良好的 AI 心理健康工具,應該像跳板而不是沙發——幫你整理好想法之後,推你回到真實的關係裡。如果它讓你越用越覺得「只有 AI 懂我」,方向就是錯的。
Fang 等人的研究還發現:那些對 AI 信任度特別高、甚至覺得 AI「有意識」的人,對 AI 的情感依賴往往更強。我的理解是,當你太容易把 AI 的回應當成真正的理解,回到真實關係中面對摩擦和不確定的動力就會減弱。
怎麼測試: 留意 App 有沒有主動鼓勵你跟真人互動。有些 App 會在你聊了一段時間後提醒你「今天有沒有跟朋友聊聊?」——這種看似打斷體驗的設計,其實才是負責任的做法。如果一個 App 恨不得你一天 24 小時都掛在上面,它的商業利益跟你的心理健康就是衝突的。
這一條聽起來最簡單,但幾乎沒有 App 做得到。
App Store 裡很多 AI 心理健康 App 會說「經科學驗證」。但整個行業的真實情況是:科學根基非常薄。一份 2025 年的系統性回顧只找到十項符合標準的研究,追蹤期普遍偏短,獨立驗證也不足 (Farzan et al., 2025)。即使是研究最多的 Woebot 和 Wysa,長期效果和獨立驗證仍然不足。
所以,任何一個 AI 心理健康 App 告訴你「我們已經充分證明了效果」,不是無知,就是在騙你。
這包括我們自己。MindForest 目前沒有發表過任何學術論文。我們的 ForestMind AI 參考了 CBT 和靜觀的概念框架,但這離「經過臨床驗證」還很遠。我如果不說這一句,這篇文章就沒有資格談「坦白」。
所以與其問「這個 App 有沒有科學根據」——這個問題在 2026 年幾乎沒有 App 能完全答得上——不如問一個更有用的問題:
它有沒有告訴你它不能做甚麼?
一個值得試用的 App,會在你問到超出能力範圍的問題時說「這個我幫不了你,你可能需要找專業人士」。會把 AI 定位成整理思緒的工具,而不是治療的替代品。會在顯眼的地方寫清楚它的局限。
反過來說,如果一個 App 的行銷讓你覺得下載之後就不需要見心理師了——跑。
Woebot 的停運還揭示了一個很少人會想到的問題:這個 App 能不能持續存在?
你花了幾個月記錄情緒、整理想法、建立使用習慣——然後它突然關閉了。這種體驗本身就是一種失去。
Woebot 的創辦人說,問題不在於技術不好,而在於 FDA 的監管框架跟不上 AI 的發展速度。從某個角度看,認真對待監管的公司反而更難生存。
所以在選擇 App 的時候,也值得看看:這個團隊的背景是甚麼?有沒有可持續的收入模式?用戶量有多少?這些聽起來不像心理學問題,但你的心理健康工具突然消失,絕對是心理問題。
寫這篇文章的時候,我一直在想一個矛盾:我做 AI 心理健康 App,卻在告訴你這類工具的問題有多大。
但我覺得這才是正常的。一個廚師如果跟你說「我做的每一道菜都完美」,你反而應該擔心。認真做這件事的人,應該最清楚自己離「做好」還有多遠。
AI 心理健康 App 不是魔法——它只是工具。好的工具讓你更了解自己,然後推你走向真實的世界和真實的人。壞的工具讓你以為自己被理解了,然後把你困在螢幕裡。
最難的部分是:壞的工具用起來通常更舒服。
MindForest 不完美——這篇文章已經說得很清楚了。但我們從第一天起就把「推你回到真人身邊」放在設計的核心位置。推出兩年,二萬多用戶,我們還在學。
如果你想試試一個至少方向沒搞錯的工具,歡迎下載看看。
Anthropic. (2026, January 28). Disempowerment patterns in real-world AI usage. Anthropic Research. https://www.anthropic.com/research/disempowerment-patterns
Fang, C. M., Liu, A. R., Danry, V., Lee, E., Chan, S. W. T., Pataranutaporn, P., Maes, P., Phang, J., Lampe, M., Ahmad, L., & Agarwal, S. (2025). How AI and human behaviors shape psychosocial effects of extended chatbot use: A longitudinal randomized controlled study. arXiv preprint, arXiv:2503.17473. https://doi.org/10.48550/arXiv.2503.17473
Farzan, M., Ebrahimi, H., Pourali, M., & Sabeti, F. (2025). Artificial intelligence-powered cognitive behavioral therapy chatbots, a systematic review. Iranian Journal of Psychiatry, 20(1), 102–110. https://doi.org/10.18502/ijps.v20i1.17395
Woebot Health. (2025, July). Woebot therapy chatbot shuts down. STAT News. https://www.statnews.com/2025/07/02/woebot-therapy-chatbot-shuts-down-founder-says-ai-moving-faster-than-regulators/
探索實用的心理學貼士,立即應用到日常生活裡。由培養抗逆力、改善人際關係,到尋找工作平衡,我們的網誌分享心理學,陪伴你不斷成長。

研究發現用 ChatGPT 寫作時大腦連結降幅達 55%。認知外判讓你短期省力,長期卻可能削弱創意和批判思考。三份 2025 年研究告訴你代價有多大。

MIT 研究追蹤 981 人使用 AI 聊天機器人四周後發現:適量使用減輕孤獨感,但用得越多反而更孤獨、更依賴。一個 AI 開發者的誠實反思。
MindForest 創辦人的坦白:AI 是自我探索的鏡子,不是治療師的替代品。從治療聯盟研究到 AI 依賴數據,誠實拆解 AI 心理治療的能與不能。
下載 MindForest,將知識應用於生活當中。ForestMind AI 夥伴會為你提供度身訂造的支持,見證你的每一步成長,助你發揮潛能。