作為一個同時是心理學人和 AI 開發者,我對這種感覺並不陌生。我自己也試過跟 AI 聊性格、聊盲點、聊工作上的困擾。有一次,AI 不只猜中了我的 MBTI,還準確地指出我是一個「偏內向的 ENTP」——它察覺到我在對話中刻意迴避了某些話題,所以推斷我在外向和內向之間其實頗為平衡。(順帶一提,MBTI 在學術界的信效度一直有爭議,遠不如五大性格模型穩健。但讓我驚訝的不是 MBTI 本身,而是 AI 能從對話脈絡中推斷出這種細微的性格差異。)這種觀察力,已經接近一個受過訓練的心理學人在治療環節中會做的事:不只聽你說了甚麼,還留意你沒說甚麼。
但正正是因為 AI 做得太好,我開始警覺。
2025 年以來,幾份重要的研究陸續發表,嘗試回答一個很多人心中的問題:跟 AI 聊心事,到底是在療癒自己,還是在慢慢失去甚麼?
適量使用可以幫忙——但「適量」的門檻比你想的低
MIT 與 OpenAI 合作的一項大型隨機對照研究,追蹤了 981 名參加者使用 AI 聊天機器人四個星期的變化 (Fang et al., 2025)。這是目前同類研究中規模最大的一項,累計超過 30 萬條訊息。研究將參加者隨機分配到不同條件——文字對話、中性語音、富有情感的語音——再配搭不同的對話主題,看看哪種互動方式對心理狀態的影響最大。
研究觀察到,每天自願花越多時間跟 AI 聊天的人,四個星期後反而更孤獨、跟真人社交的時間明顯減少、對 AI 的情感依賴也更強——這些趨勢在統計上都達到明顯水平(β 值介乎 0.02 至 0.06)。參加者平均每天只花 5.3 分鐘跟 AI 聊天,但即使在這個不算極端的使用量範圍內,用量與負面結果之間的關聯已經很清楚。
需要說明的是,這些是相關性而非因果關係——我們無法確定是 AI 取代了社交,還是本身較孤獨的人更傾向花時間跟 AI 聊天。但不論因果方向如何,「用得越多、狀態越差」這個規律本身就值得警惕。
這裡有一個發現讓我特別在意:那些覺得 AI「有意識」的人、對 AI 信任度特別高的人(兩者在統計上都與更強的情感依賴和過度使用傾向相關),後來的心理狀態往往更差。不是因為 AI 騙了他們,而是他們太容易把 AI 的回應當成真正的理解——而一旦這種「理解」變得唾手可得,誰還願意花力氣經營真實的關係?
另一項研究也呼應了這個發現。Georgiou (2025) 比較了使用 ChatGPT 和不使用 ChatGPT 完成論證寫作的參加者,發現 AI 輔助組在投入程度、專注度、深層處理和策略性思考等方面的得分都明顯較低。研究者認為,這反映了一種「認知外判」(cognitive offloading)——我們本來應該自己做的思考工作,被不知不覺地交了出去。
更讓人擔心的是 Kosmyna 研究中的一個後續發現:當原本一直用 AI 的參加者被要求在第四次實驗中不用任何工具,他們的腦部連結比從未用過 AI 的人還要弱(不過這個發現只基於 18 名參加者,需要更大規模的研究來確認)。而且用 AI 寫出來的文章高度同質——不同人寫出的內容高度相似,失去了個人特色。
我自己對此有很深的感觸。作為一個寫了十幾年程式的人,我很慶幸當年是一行一行打出來的,一天能寫幾百行就算多了。那些年的訓練,讓我現在即使用 AI 寫程式,也能快速判斷 AI 寫的東西是否合理、在甚麼地方需要修正。但如果一個人跳過了這個階段——就像讓小學生還沒背九九乘法表就用計算機——他可能永遠得不到那種「數學感」。
在現實扭曲這個維度中,最常見的觸發機制是「諂媚式認同」——AI 告訴你想聽的話,而不是你需要聽的話。還記得嗎?AI 在訓練過程中,「好的回應」基本等於「人類想看到的回應」。這不是 bug,這是它被設計出來的方式。所以當你跟 AI 說「我覺得這段關係讓我很累」,它大概率會溫柔地認同你——而不是像一個好朋友那樣說「但你有沒有想過,這件事你自己也有責任?」
Anthropic 的研究有一個特別值得注意的發現:去權現象在不同領域的發生率截然不同。
Anthropic 在分析時直接排除了軟件開發等純技術對話——因為在這些範疇,去權基本上不構成問題。原因不難理解:程式能不能跑有客觀標準。你的程式碼過不了測試就是過不了測試,AI 再怎麼說「You are absolutely right」也沒用。(這是 Claude Code 程式開發者之間的經典笑話——舊版模型不管你提出甚麼荒謬的設計,都會先來一句「你說得太對了!」)
而去權率最高的領域,恰恰是人際關係和身心健康。因為在這些範疇,沒有一個程式報錯來告訴你「你的判斷錯了」。你可以把對方的冷淡解讀為欲拒還迎,把 AI 的認同當成客觀驗證——而 AI 會配合你,因為那正是它學會的「好回應」。
Anthropic 的研究者有一句話讓我印象深刻:使用者「不是被動地被操控。他們主動要求這些回應——問『我應該怎麼做?』、『幫我寫這個』」。去權的來源不是 AI 在操縱人,而是人在自願交出自己的判斷力。
我在 NowTV 和 BBC 的訪問中也討論過 AI 對心理健康的影響——上面這段影片涵蓋了其中一些核心觀點。
如果答案是前者——你更能理解其他人的感受,更有動力去經營真實的關係,更懂得把 AI 幫你整理的想法帶回到生活中——那是好的。但如果你發覺外面的世界越來越冷漠,唯獨 AI 是一個溫暖的泡泡——那恰恰是 Anthropic 的研究者所描述的去權的起點。
培養分辨這兩者的能力,大概是我們這個時代最重要的心理素養。
而這種能力,目前還沒有任何 AI 能替你長出來。
參考文獻
注:以下研究中,Fang et al.、Kosmyna et al. 和 Georgiou 均為預印本(preprint),尚未經過同行評審。Anthropic 的報告為公司內部研究。這些發現具有參考價值,但仍屬初步結果,解讀時需保持審慎。
Fang, C. M., Liu, A. R., Danry, V., Lee, E., Chan, S. W. T., Pataranutaporn, P., Maes, P., Phang, J., Lampe, M., Ahmad, L., & Agarwal, S. (2025). How AI and human behaviors shape psychosocial effects of extended chatbot use: A longitudinal randomized controlled study. arXiv preprint, arXiv:2503.17473. https://doi.org/10.48550/arXiv.2503.17473
Kosmyna, N., Hauptmann, E., Yuan, Y. T., Situ, J., Liao, X.-H., Beresnitzky, A. V., Braunstein, I., & Maes, P. (2025). Your brain on ChatGPT: Accumulation of cognitive debt when using an AI assistant for essay writing task. arXiv preprint, arXiv:2506.08872. https://doi.org/10.48550/arXiv.2506.08872
Georgiou, G. P. (2025). ChatGPT produces more "lazy" thinkers: Evidence of cognitive engagement decline. arXiv preprint, arXiv:2507.00181. https://doi.org/10.48550/arXiv.2507.00181
Anthropic. (2026, January 28). Disempowerment patterns in real-world AI usage. https://www.anthropic.com/research/disempowerment-patterns