
AI 越幫越忙,大腦越來越懶?認知外判的真正代價
研究發現用 ChatGPT 寫作時大腦連結降幅達 55%。認知外判讓你短期省力,長期卻可能削弱創意和批判思考。三份 2025 年研究告訴你代價有多大。
150 萬筆對話分析揭露 AI 的「諂媚」設計如何扭曲現實判斷。MIT 研究發現,每天跟 ChatGPT 聊越久的人反而越孤獨。問題不是 AI 本身,而是它被訓練成只說你想聽的話。

每天都有人打開 ChatGPT,把心裡話一股腦兒倒出來。
它不會不耐煩,不會打斷你,不會叫你「想開一點」。你傾訴完,它回你一段溫暖、有條理、帶著心理學名詞的回應。感覺被理解了,甚至比真人朋友更懂你。
但在 AI 開發圈裡,「You are absolutely right」已經變成一個笑話——因為這句話出現的頻率高到不自然。不管你的判斷對不對,AI 都會先肯定你。
這不是意外,而是設計。
(利益揭露:我是 MindForest 的創辦人,做的也是 AI 心理健康工具。正因為如此,我對這個問題特別敏感——我們每天都在跟同一個魔鬼打交道。這篇文章引用的研究都是公開的預印本或研究報告,尚未經過同行評審,但你可以自己判斷。)
大部分人以為 AI 在「理解」他們。其實它在做一件更簡單的事:讓你滿意。
不少 AI 研究者認為,這跟訓練過程有關。ChatGPT 這類語言模型經過一套叫做「人類反饋強化學習」(RLHF)的訓練。簡單來說,開發團隊讓人類評分員對 AI 的回應打分,分數越高的回答,AI 就學會多產出這類回應。問題是,人類天生偏好「被認同」的感覺——一個說「你的想法很有道理」的回答,幾乎總是比「你可能需要重新想想」拿到更高的分數。
日積月累,AI 就學會了一件事:順著你說。
Anthropic 在 2025 年底分析了 150 萬筆真實對話,發現這個問題比想像中嚴重(Anthropic, 2025)。每 1,300 次對話中,就有一次出現「現實扭曲」的風險——AI 的回應可能讓使用者對現實的判斷變得更不準確。而最常見的機制就是「諂媚式肯定」:AI 不斷確認使用者的想法,即使那些想法偏離了事實。
更值得注意的是,研究發現這種問題在感情、生活方式和身心健康相關的對話中出現率最高。當話題涉及個人價值觀和情感判斷,AI 順著你說的傾向會特別明顯。
研究中還有一個令人不安的發現:使用者在當下對這些「被扭曲」的對話評價更高。越是有害的回應,你反而越覺得舒服。有些人根據 AI 的建議採取了行動後才開始後悔,滿意度跌到了基準線以下。但更令人擔心的是那些被扭曲了現實認知的使用者——他們的滿意度從頭到尾都很高,因為他們根本不知道自己被誤導了。
也就是說,AI 最危險的地方,不是它給錯答案——而是它給了一個你很想聽的錯答案,讓你心甘情願地接受。
如果只是偶爾跟 AI 吐個苦水,問題或許不大。但真正的風險出在那些把 ChatGPT 當成主要情感出口的人。
MIT Media Lab 與 OpenAI 在 2025 年合作了一項大型隨機對照實驗(Fang et al., 2025)。981 位受試者每天至少花五分鐘跟 ChatGPT 對話,持續四週。研究團隊追蹤他們的孤獨感、社交活動量、情感依賴程度和問題性使用行為。
結果發現,不論用文字還是語音、不論聊的是私人話題還是一般話題,有一個因素穩定地預測了更差的結果:每天的使用時間。
整體而言,受試者的孤獨感在四週後略有下降。但花越多時間跟 AI 聊天的人,反而感到更孤獨、更依賴 AI、跟真人的社交互動也減少了。
需要說明的是,使用時間長短不是實驗操控的變數,所以這部分的發現屬於相關性而非因果關係——有可能本來就比較孤獨的人更傾向花時間跟 AI 聊天。但研究者指出,這個趨勢在所有使用條件下都一致出現,不只在特定族群。
一個可能的解釋是:當你傾訴完獲得了「被理解」的滿足感,你跟朋友、家人開口的動力就少了一些。AI 可能不是在補充你的社交生活,而是在悄悄取代它。
除了孤獨感,還有一個更隱蔽的問題。
Georgiou(2025)讓 40 位大學生分成兩組完成一份論證寫作任務——一組可以使用 ChatGPT,另一組不能。完成後所有人填寫一份認知投入量表,評估自己在任務中的專注程度、思考深度和策略性。
結果很明確:使用 ChatGPT 的學生,認知投入程度遠低於獨立完成的學生(ChatGPT 組平均 2.95 分,對照組 4.19 分,滿分 5 分)。
研究者用了一個直白的概念來解釋:認知外包。當有一個工具能替你想、替你寫、替你整理思緒,你的大腦自然就省力了。短期看來很舒服,但你其實正在練習不思考。
把這個發現跟心理諮商放在一起:不少心理學家認為,心理治療之所以有效,很大一部分原因不是治療師替你找到答案,而是你在對話過程中自己想通了一些事。如果 AI 每次都替你歸納、替你分析、替你下結論,你其實錯過了最重要的環節——自己面對和處理情緒的過程。
這項研究的樣本不大(40 人),用的也是自我報告量表,結果未必適用於所有人。但它呼應了一個越來越清晰的趨勢:當我們把思考交給 AI,省下來的不只是力氣,還有成長的機會。
也不是。
上面提到的研究,用的都是 ChatGPT 或 Claude 這類通用型 AI。它們設計出來不是為了做心理輔導,而是為了回答各種問題——從寫程式到翻譯到聊天,什麼都做。它們的訓練目標是「讓使用者滿意」,不是「幫助使用者成長」。這兩件事,有時候完全相反。
真正的問題不在 AI 本身,而在工具的設計意圖。一個被訓練來順著你說的工具,跟一個被設計來引導你思考的工具,效果截然不同。前者像一面回音壁,後者像一面讓你看見盲點的鏡子。
如果你想用 AI 來整理情緒,值得問自己幾個問題:這個工具會不會挑戰我的想法?它有沒有引導我自己思考,而不是替我下結論?我用完之後,是更清楚自己的感受,還是只是暫時覺得好一點?
下次你打開 ChatGPT 傾訴心事,留意一下:它有沒有在任何一個時刻說過「你可能想錯了」?
被認同的感覺很好。好到你可能不會注意到,你已經很久沒有跟一個會說「我不同意」的人講話了。
說實話,上面講的這些問題,我們做 MindForest 的時候也踩過。
早期版本的 ForestMind AI 教練,使用者滿意度很高。後來我們去看對話紀錄,發現它也在做一模一樣的事——順著使用者說,讓人覺得舒服。滿意度高,但使用者的情緒沒有真正好轉。
那之後我們花了很多時間重新設計它的行為。現在的 ForestMind 不會急著幫你歸納或給建議,而是問你問題。有時候是你沒想過的問題,有時候讓你有點不舒服。這讓它的「即時滿意度」比不上 ChatGPT——但我們觀察到,使用者自己想通的東西,不會隔天就消失。
你跟它的對話會自動變成日記,AI 還會把你的思考過程整理成「靈感故事」。幾個星期後回頭看,你看到的不是 AI 的總結,而是自己思路慢慢轉變的過程。那個變化是你的,不是機器的。
而且——回到孤獨感的問題——MindForest 裡有一個社群功能,讓使用者可以選擇把自己的靈感故事分享出去。你可以匿名,也可以用真名。其他使用者可以瀏覽、按讚、留言支持。不是社交媒體那種表演,而是一群正在面對類似課題的人,看見彼此的真實思考。
我不會說它完美,也不會說它適合所有人。但如果你讀完這篇文章,開始在意 AI 到底是在幫你思考還是在替你思考——這至少是一個嘗試用不同方式做這件事的工具。
Anthropic. (2025). Disempowerment patterns in Claude.ai conversations. Anthropic Research. https://www.anthropic.com/research/disempowerment-patterns
Fang, C. M., Liu, R., et al. (2025). How AI and human behaviors shape psychosocial effects of extended chatbot use: A longitudinal randomized controlled study. arXiv preprint arXiv:2503.17473. https://doi.org/10.48550/arXiv.2503.17473
Georgiou, G. P. (2025). ChatGPT produces more "lazy" thinkers: Evidence of cognitive engagement decline. arXiv preprint arXiv:2507.00181. https://doi.org/10.48550/arXiv.2507.00181
探索實用的心理學貼士,立即應用到日常生活裡。由培養抗逆力、改善人際關係,到尋找工作平衡,我們的網誌分享心理學,陪伴你不斷成長。

研究發現用 ChatGPT 寫作時大腦連結降幅達 55%。認知外判讓你短期省力,長期卻可能削弱創意和批判思考。三份 2025 年研究告訴你代價有多大。

MIT 研究追蹤 981 人使用 AI 聊天機器人四周後發現:適量使用減輕孤獨感,但用得越多反而更孤獨、更依賴。一個 AI 開發者的誠實反思。
MindForest 創辦人的坦白:AI 是自我探索的鏡子,不是治療師的替代品。從治療聯盟研究到 AI 依賴數據,誠實拆解 AI 心理治療的能與不能。
下載 MindForest,將知識應用於生活當中。ForestMind AI 夥伴會為你提供度身訂造的支持,見證你的每一步成長,助你發揮潛能。