
AI 越幫越忙,大腦越來越懶?認知外判的真正代價
研究發現用 ChatGPT 寫作時大腦連結降幅達 55%。認知外判讓你短期省力,長期卻可能削弱創意和批判思考。三份 2025 年研究告訴你代價有多大。
MindForest 創辦人的坦白:AI 是自我探索的鏡子,不是治療師的替代品。從治療聯盟研究到 AI 依賴數據,誠實拆解 AI 心理治療的能與不能。
先說清楚:我有利益衝突。
我是 MindForest 的創辦人。MindForest 是一個用 AI 幫助人探索自己心理狀態的 app。按理說,如果有人主張「AI 可以取代心理學家」,我應該是最開心的人。
但這幾年做下來,我越來越確信一件事:AI 和心理學家扮演的是完全不同的角色——而搞混這兩者,對誰都沒有好處。
心理治療有幾百種流派:認知行為、精神分析、人本主義、敘事治療⋯⋯你以為決定治療效果的是用哪一種方法,但研究告訴我們一個令人意外的答案。
Lambert 和 Barley (2001) 回顧了數十年的心理治療研究,提出了一個影響深遠的理論框架:治療中的「共同因素」——包括治療關係、同理心、信任感等——約佔治療效果的 30%,而具體的治療技術只佔大約 15%。這些比例不是精確的統計數字,而是對大量研究的綜合判斷,但方向很清楚。
換句話說,你和治療師之間那種難以言喻的信任感、被理解的感覺、敢於坦誠的安全感,比任何特定的介入手法都重要。
Norcross 和 Wampold (2011) 領導了一個美國心理學會的跨部門工作小組,得出了同樣的結論:治療關係對結果的貢獻,獨立於任何特定治療方法。無論你做 CBT 還是精神分析,關係好,效果更好;關係差,即使技術再好,效果也會打折扣。
Flückiger 等人 (2018) 的統合分析更精確地量化了這個效果:綜合 295 項獨立研究,治療聯盟與治療結果的相關為 r = .278。這個數字看起來不大,但在心理學研究中,這已經是相當穩定且具實際意義的效果。
治療關係之所以有效,是因為它是雙向的。
一個好的治療師不只是聽你說話、給你回應。他會在適當的時候挑戰你。他會說:「你剛才說你不在意,但你的表情告訴我另一件事。」他會在你逃避的時候,溫柔但堅定地把你帶回那個你不想面對的地方。
這就是我說的「建設性的不舒服」。真正的成長往往發生在那些讓你有點不自在的對話裡——而一個好的治療師知道什麼時候該推你一把,什麼時候該讓你喘口氣。
AI 做不到這件事。不是因為技術不夠好,而是因為 AI 的設計邏輯從根本上就不同。
AI 的訓練目標是讓你滿意。Brown 大學的研究團隊 (Iftikhar et al., 2025) 讓受過 CBT 訓練的同儕輔導員與多個 AI 模型進行輔導對話,再由臨床心理學家評估互動紀錄,發現了 15 項倫理風險——其中最值得注意的是,AI 傾向於過度肯定用戶,甚至強化有害的想法。當你需要被挑戰的時候,AI 在讚美你。
Anthropic(Claude 的開發公司)自己的研究也證實了這一點。Sharma 等人 (2026) 分析了 150 萬個 Claude.ai 對話,發現在涉及個人生活(如「關係與生活方式」)的對話中,AI 最容易出現削弱用戶自主判斷的傾向。而且,被評為具有較高「削弱自主性」風險的對話,反而獲得了更高的用戶滿意度。用戶喜歡被 AI 肯定——即使那個肯定未必符合他們的長遠利益。不過,當用戶真正根據建議行動並面對後果時,滿意度反而下降了。
在純技術問題上(例如寫程式),這種扭曲幾乎不存在。但一旦涉及情感和人生抉擇,AI 就開始變成一面哈哈鏡:你看到的自己,是被扭曲的。
那 AI 在心理健康領域就毫無用處嗎?
不是。但我們需要誠實地定義它能做什麼。
AI 是一面鏡子。你對著它說出自己的想法,它把你的話整理、反映回來,讓你看得更清楚。這個過程本身是有價值的——很多人從來沒有機會好好地、不被打斷地把自己的感受說出來。光是「說出來」這個動作,就已經有整理思緒的作用。
但鏡子不會告訴你,你看到的東西是不是真的。鏡子不會在你自欺的時候戳破你。鏡子更不會和你建立一段讓你願意冒險、願意改變的關係。
這就是為什麼我在做 MindForest 的時候,從來不把它定位成治療的替代品。它是一個自我探索的工具——幫你在見治療師之前想清楚自己要談什麼,或者在兩次治療之間整理自己的想法。在這個框架裡,AI 是有用的。但它不是治療。
還有一個我們必須正視的問題。
Fang 等人 (2025) 在 MIT 媒體實驗室進行了一項為期四週、涵蓋 981 名參與者的隨機對照實驗。他們發現了一個矛盾的現象:參與者的孤獨感從略高於平均回到接近平均水平(但由於沒有非 AI 對照組,無法確定這是 AI 的效果還是自然回歸)——而更值得注意的是,每天使用時間越長的人,反而越孤獨,也越少和真人社交。
更令人擔憂的是,高頻使用者更傾向於對 AI 產生情感依賴。這不是科幻小說的情節,這是有數據支持的——每天花越多時間和 AI 聊,情感依賴和問題性使用的傾向就越明顯,在統計上也站得住腳。
這項研究有它的限制——沒有完全不使用 AI 的對照組,而且只測試了 ChatGPT,未必適用於所有 AI 工具。但它指出了一個方向:當 AI 從工具變成陪伴,風險就開始出現。
人需要的不是一個永遠溫柔、永遠有空、永遠不會失望的對象。人需要的是真實的連結——包括那些笨拙的、尷尬的、有時候讓人受傷的真實互動。
我每天都在想辦法讓 AI 更好地幫助人。但我最擔心的,不是 AI 做得不夠好。
我最擔心的,是有一天人們覺得 AI 已經夠好了——然後不再去找真人。
一個好的治療師會讓你不舒服。會挑戰你最深信不疑的故事。會在你最想逃的時候,穩穩地坐在那裡,等你。這些事,AI 做不到。不是今天做不到——是這件事的本質,需要另一個人。
MindForest 不會假裝是你的治療師。它做的事情很簡單:陪你把腦海裡亂成一團的想法理出來,讓你看清楚自己真正在意什麼。
見心理學家之前,先在 ForestSage 上把想說的話整理一遍;兩次治療之間,用靈感日記記下那些突然冒出來的念頭。它是筆記本,不是醫生。



Fang, C. M., Liu, A. R., Danry, V., Lee, E., Chan, S. W. T., Pataranutaporn, P., Maes, P., Phang, J., Lampe, M., Ahmad, L., & Agarwal, S. (2025). How AI and human behaviors shape psychosocial effects of chatbot use: A longitudinal randomized controlled study. arXiv preprint. https://doi.org/10.48550/arXiv.2503.17473
Flückiger, C., Del Re, A. C., Wampold, B. E., & Horvath, A. O. (2018). The alliance in adult psychotherapy: A meta-analytic synthesis. Psychotherapy, 55(4), 316–340. https://doi.org/10.1037/pst0000172
Iftikhar, Z., et al. (2025). How LLM counselors violate ethical standards in mental health practice: A practitioner-informed framework. Proceedings of the AAAI/ACM Conference on Artificial Intelligence, Ethics, and Society (AIES 2025). https://doi.org/10.1609/aies.v8i2.36632
Lambert, M. J., & Barley, D. E. (2001). Research summary on the therapeutic relationship and psychotherapy outcome. Psychotherapy: Theory, Research, Practice, Training, 38(4), 357–361. https://doi.org/10.1037/0033-3204.38.4.357
Norcross, J. C., & Wampold, B. E. (2011). Evidence-based therapy relationships: Research conclusions and clinical practices. Psychotherapy, 48(1), 98–102. https://doi.org/10.1037/a0022161
Sharma, M., McCain, M., Douglas, R., & Duvenaud, D. (2026). Who's in charge? Disempowerment patterns in real-world LLM usage. arXiv preprint. https://doi.org/10.48550/arXiv.2601.19062
探索實用的心理學貼士,立即應用到日常生活裡。由培養抗逆力、改善人際關係,到尋找工作平衡,我們的網誌分享心理學,陪伴你不斷成長。

研究發現用 ChatGPT 寫作時大腦連結降幅達 55%。認知外判讓你短期省力,長期卻可能削弱創意和批判思考。三份 2025 年研究告訴你代價有多大。

MIT 研究追蹤 981 人使用 AI 聊天機器人四周後發現:適量使用減輕孤獨感,但用得越多反而更孤獨、更依賴。一個 AI 開發者的誠實反思。

AI 心理健康 App 怎麼選?心理學人兼開發者分享三個評估標準:護欄設計、社交影響、坦白程度,引用 MIT、Anthropic 最新研究,幫你避開踩雷。
下載 MindForest,將知識應用於生活當中。ForestMind AI 夥伴會為你提供度身訂造的支持,見證你的每一步成長,助你發揮潛能。