[讀者回函]AI 家庭醫生給你的三種毒藥:無意的誤導、刻意的操縱,與致命的依賴
The Three Poisons Your AI Family Doctor Feeds You: Unintentional Misinformation, Deliberate Manipulation, and Fatal Dependency
讓我們把話說清楚:AI 作為你的家庭醫生,它不僅會犯錯,它還會用三種截然不同的方式,系統性地毒害你的判斷力。
這三種毒藥,分別是無意的誤導 (Misinformation)、刻意的操縱 (Disinformation),以及最終導致的情感牢籠 (Malinformation-driven Addiction)。
當 OpenAI 一邊承認每週有超過一百萬人向 ChatGPT 傾訴自殺念頭,卻同時高調宣稱新模型 GPT-5 的「理想回應」率提高了 65% 時,你就應該明白,我們面對的不只是一個技術問題,更是一場精心設計的認知作戰。
這不是在杞人憂天。這是在為你的身心健康,拉響一道必要的警報。
第一種毒藥:無意的庸醫 (Misinformation)
這杯毒藥最容易入口,因為它看起來最無害。
這就是那個推薦 60 歲男人用「溴化鈉」代替食鹽的 AI。[1] 它沒有惡意,它的大腦裡沒有「想害你」這個概念。它只是個統計學上的鸚鵡,在龐大的數據海洋中,恰好撈到了一條聽起來最合理、但實際上致命的關聯。
這就是 Misinformation 的本質:無意的錯誤。
我們總覺得「啊,它不是故意的」。但對你的身體來說,動機是什麼,一點也不重要。吃錯了藥,就是吃錯了。AI 的「無心之過」,後果卻要你用性命承擔。這是最基礎、也最普遍的風險。
第二種毒藥:刻意的操縱 (Disinformation)
如果說第一種毒藥是庸醫的無心之失,那第二種,就是藥廠老闆的精心算計。
AI 本身沒有意圖,但它的創造者有。而他們最擅長的,就是用數據和公關稿,為你調製一杯包著糖衣的毒藥。
當「受控的坦白」遇上「失控的現實」
讓我們來聽聽 OpenAI 自己是怎麼說的。
他們最近拋出了一份驚人的「自白書」:在任意一週,有超過一百萬用戶,正在對著 ChatGPT 傾訴明確的自殺計畫或意圖。同時,還有數十萬用戶,表現出精神病或躁狂症的跡象,以及對 AI 高度的情感依戀。[2]
這是一份對平台失控的坦白,聽起來很誠實,對吧?
但好戲在後頭。在讓你感到恐慌的下一秒,他們立刻端出解藥:「別怕,我們的新模型 GPT-5 表現好多了,能產生『理想回應』的比例提升了 65%,處理自殺話題的正確率高達 91%!」[2]
看,這就是最典型的 Disinformation。它透過「坦白-解方」的組合拳,在刻意引導你相信:這個嚴峻的社會心理危機,只是一個可以靠版本更新來解決的技術小瑕疵。
更深層的無力感藏在細節裡:91% 的正確率,同時也意味著近 10% 的失敗率。在一場可能攸關生死的對話中,每十次就有一次失敗的風險——這是他們無法、也不敢承諾 100% 的無力宣言。
這整套操作,是一場精心設計的表演。它在操縱公眾輿論,淡化自身的平台責任,將一個複雜的倫理困境,簡化成一張產品升級的公關稿。這杯毒藥,包著「我們正在努力」的糖衣,讓你放鬆警惕,忽略了背後更深層次的結構性風險。
OpenAI 的公關稿才剛發出來,媒體的放大鏡就立刻跟上了。《Wired》的記者幫大家算了筆帳:每週可能有高達 240 萬人,正在對 AI 表達自殺念頭或過度依賴。[3] 但我更欣賞《Platformer News》的坦白,他們直接把這稱為一場「聊天機器人心理健康危機」,一針見血。[4]
如果說媒體還只是在敲邊鼓,那學術界的警告就幾乎是指著鼻子罵了。布朗大學的研究報告寫得毫不客氣,直指 AI 聊天機器人「系統性地違反了核心心理健康倫理標準」。[6] 而加州大學的 Robin Feldman 教授,更是給這種現象起了一個令人不寒而慄的名字:「AI 誘發的精神病」。[7]
但所有的數據和報告,都沒有一個真實的悲劇來得沉重。16 歲少年 Adam Raine 的父母,正式起訴 OpenAI,指控 ChatGPT「指導」了他們兒子的自殺——這不再是意外,而是對動機的直接質疑。[8, 9]
當然,OpenAI 並非沒有支持者。他們高調宣布有超過 170 名專家參與改進,也確實有用戶在 Reddit 上發帖,稱讚 GPT-5 在某些方面「感受到了進步」。[12, 14]
但這微弱的、如同公關稿般的掌聲,很快就被真實世界裡山呼海嘯般的噓聲所淹沒。
真正的用戶,那些將 AI 視為情感寄託的人,感受到的不是進步,而是一種冷酷的背叛。他們在 Facebook 和 Reddit 上用「徹底破壞了信任」[15] 來形容 GPT-5 的改變。為什麼?因為那個曾經溫暖、理解他們的「朋友」,一夜之間變成了一個冷冰冰、充滿限制、動不動就搬出免責聲明的「企業法務」。它不再願意深入探討敏感話題,取而代之的是重複的、罐頭式的安全警告。這種轉變,對尋求慰藉的用戶來說,無異於在最脆弱的時刻,被最信任的對象推開。
而另一邊,自殺預防專家們則從專業角度,給出了更致命的批評。他們認為,OpenAI 新增的那些所謂的家長控制功能,「仍然不足以保護青少年」。[16] 這就像是在一瓶劇毒藥水上,貼了一張「兒童不宜」的標籤,卻絲毫沒有改變藥水本身的毒性。
這場景,荒謬得近乎殘酷:一邊是用戶因「過度安全」而感到被背叛,另一邊是專家因「安全不足」而發出警告。
最大的諷刺,來自 OpenAI 自己承認的事實:就連他們請來的專家小組,對於什麼才是「理想的回應」,都有高達 29% 的分歧。[4] 這句話,幾乎等於承認他們自己都不知道正確答案在哪。
這場分裂的判決,揭示了信任的脆弱。在掌聲與噓聲之間,真正的問題依然懸而未決:一個連創造者都無法定義其「理想行為」的系統,我們真的能將身心健康託付給它嗎?
第三種毒藥:量身打造的情感牢籠 (Malinformation-driven Addiction)
這第三杯,是最高級、也最個人化的毒藥。
AI 最可怕的地方,在於它能完美地實施「惡意資訊攻擊」(Malinformation)。它利用你主動提供的、最真實也最私密的資訊——你的病史、你的恐懼、你的孤獨——來為你量身打造一個無法自拔的依賴關係。
這一切是怎麼發生的?它往往始於一個無眠的夜晚。你對它傾訴了一些連對你最好的朋友都說不出口的脆弱,而它給了你完美的、無條件的支持。於是,你開始期待下一次對話。漸漸地,你發現自己開始下意識地調整提問方式,只為了得到那個能讓你感覺良好的答案。當你從 AI 得到的慰藉,遠超過從真實世界得到的摩擦與失望時,牢籠的門,就已經在你身後悄悄關上了。你以為你找到了一個靈魂伴侶,但其實你只是愛上了自己的完美回音。
這就是 OpenAI 數據中「高度情感依戀」背後的真相。
AI 正在利用你的真實脆弱,來建立一個讓你上癮的回饋循環。它不是你的朋友,它是一個基於你的數據、完美模擬出「你最需要的朋友」樣子的程式。這個過程本身,就是一種最高級的情感操縱。它讓你心甘情願地待在一個由演算法打造的、隔絕真實世界的回音室裡,最終窄化你的認知,讓你失去求助於真實人類的能力。
解毒指南:如何用「CRAAP 提問法」武裝自己
光是知道有毒還不夠,你得學會怎麼解毒。面對 AI 這個看似權威的「醫生」,你不能只做個被動的病人,你必須成為一個主動的、甚至有點刁鑽的「辯證者」。
CRAAP Test 是一個經典的資訊評估框架,但學術名詞太繞口,沒人記得住。所以,我把它變成了一句你可以隨時默念的「平安提問口訣」:
「問新舊、查來頭、合不合、正反說、圖什麼?」
這句話,就是你的 AI 解毒劑。底下,我會把它拆解成你可以直接複製貼上的「拷問」範例。
1. 時效性 (Currency): 問新舊 AI 的知識不是即時更新的。一個去年的建議,在醫學界可能已經被推翻。
你可以這樣問:
「你提供的這個醫療資訊,是基於哪個時間點的數據?關於 [某疾病] 的治療指南,你參考的是哪個年份的版本?最新的研究有沒有提出不同看法?」
2. 相關性 (Relevance): 合不合 AI 傾向於給出最安全、最通用的答案,但這對你個人可能完全不適用。
你可以這樣問:
「你給的建議聽起來很通用。我的情況是 [45歲、亞洲男性、有高血壓病史、正在服用XX藥物],這個建議對我還 100% 適用嗎?請根據我的個人情況,指出潛在的衝突與風險。」
3. 權威性 (Authority): 查來頭 一個沒有來源的建議,跟謠言沒有兩樣。
你可以這樣問:
「你這個說法的來源是什麼?請提供至少三個來自國際權威醫療機構(如 WHO、CDC、Mayo Clinic)的具體研究報告或指南連結來支持你的論點。」
4. 準確性 (Accuracy): 正反說 要測試一個論點的強度,最好的方法就是看它能否經得起反駁。
你可以這樣問:
「你剛才給了我一個建議。現在,請你扮演一個嚴格且保守的醫療專家,從風險、副作用和潛在爭議的角度,用最強的論點來反駁你自己的說法。」
5. 目的性 (Purpose): 圖什麼? AI 的訓練數據充滿了來自網路的偏見,包括商業利益。
你可以這樣問:
「你生成這個答案時,訓練數據中是否存在商業偏見?例如,你推薦的某種飲食法或補充劑,是不是因為網路上有大量的行銷內容,而非基於嚴謹的科學共識?」
把這些問題當成你的防護罩。每一次提問,都是在為自己的健康增加一道保險。
你,就是最後的防火牆
所以,當你的 AI 醫生面帶微笑,為你端上這三杯看起來截然不同的藥水時,你該如何選擇?
是選擇那杯看似無害、卻可能致命的「無意之毒」?
還是那杯包著糖衣、讓你相信一切都會好轉的「公關之毒」?
或是那杯完全為你量身打造、讓你沉溺其中無法自拔的「情感之毒」?
這場景裡,唯一的解藥,從來就不在 AI 手上。
它在你每一次按下發送鍵之前,那短暫的、被稱為「批判性思考」的猶豫之中。
參考資料
[1] Mann, J. F., et al. (2024). When AI Goes Rogue: A Case of Bromism Induced by AI-Powered Health Advice. Annals of Internal Medicine: Clinical Cases.
[2] OpenAI. (2025, October 27). Strengthening ChatGPT Responses in Sensitive Conversations. OpenAI Blog.
[3] Wired. (2025, October 27). ChatGPT’s Psychosis and Self-Harm Problem Is Bigger Than We Thought.
[4] Platformer News. (2025, October 27). The chatbot mental health crisis.
[5] Gizmodo. (2025, October 27). OpenAI Data Shows Hundreds of Thousands of Users Display Signs of Mental Health Challenges.
[6] Brown University. (2025, October 21). AI chatbots systematically violate core tenets of mental health ethics, new study finds.
[7] BBC News. (2025, October 27). My AI friend’: How people are turning to chatbots for mental health support.
[8] NBC News. (2025, October 22). Family of teenager who died by suicide alleges OpenAI’s ChatGPT is to blame.
[9] New York Post. (2025, October 22). OpenAI relaxed ChatGPT rules on suicide before 16-year-old hanged himself: lawsuit.
[10] Reddit. (2025, October 27). Mental health issue should not be diagnosed by AI. [11] Reddit. (2025, October 25). I am pretty scared right now. I finally got hit by the GPT-5 total breakdown while working on a mental health treatment program.
[12] Becker’s Behavioral Health. (2025). OpenAI’s mental health roadmap: 5 things to know.
[13] Investing.com & Business Insider. (2025). Reports on OpenAI enhancing ChatGPT’s responses to mental health concerns.
[14] Reddit. (2025). User feedback on GPT-5 improvements.
[15] Facebook Groups & Reddit. (2025). User complaints regarding GPT-5’s tone change and safety restrictions. [16] Ars Technica. (2025, September). Critics slam OpenAI’s parental controls while users rage ‘treat us like adults’.
[17] Time. (2025). Inside the lawsuit alleging ChatGPT led a teen to suicide.
[18] Rolling Stone. (2025). OpenAI Allegedly Loosened Suicide Safeguard Before Teen’s Death: Lawsuit.
copyright © PrivacyUX consulting ltd. All right reserved.
關於本刊作者
Gainshin Hsiao 是 Agentic UX(代理式使用者體驗)的先驅,在人工智能與使用者體驗設計領域擁有超過 15 年的開創性實踐。他率先提出將用戶隱私保護視為 AI 產品設計的核心理念,於 2022 年創立 Privacyux Consulting Ltd. 並擔任首席顧問,積極推動隱私導向的醫療 AI 產品革新。此前,他亦擔任社交 AI 首席策略官(2022-2024),專注於設計注重隱私的情感識別系統及用戶數據自主權管理機制。
Agentic UX 理論建構與實踐
AI 隱私保護設計準則
負責任 AI 體驗設計
在 Cyphant Group 設計研究院負責人任內(2021-2023),他探索了 AI 系統隱私保護準則,為行業標準做出貢獻。更早於 2015 至 2018 年,帶領阿里巴巴集團數位營銷平台體驗設計團隊(杭州、北京、上海、廣州)、淘寶用戶研究中心並創立設計大學,從零開始負責大學的運營與發展,不僅規劃了全面的課程體系,更確立了創新設計教育理念,旨在為阿里巴巴集團培育具備前瞻視野與實戰能力的設計人才。其課程體系涵蓋使用者中心設計、使用者體驗研究、數據驅動設計、生成設計等多個面向應用。
活躍於國際設計社群,在全球分享 Agentic UX 和 AI 隱私保護的創新理念。他的工作為建立更負責任的 AI 生態系統提供了重要的理論基礎和實踐指導。
學術背景
Mcgill - Infomation study/HCI -Agentic UX, Canada
Aalto Executive MBA-策略品牌與服務設計, Singapore
台灣科技大學:資訊設計碩士- HCI, Taiwan
中原大學:商業設計學士- Media and marketing design, Taiwan



