[讀者回函] OpenAI 築起了圍欄,但我們的孩子需要的是指南針
OpenAI Built Fences, But Our Children Need Compasses
OpenAI 終於承認了。
他們用三份精心措辭的聲明,不經意地自白了一件事:他們親手打造的,是一個需要被嚴加看管的「情感陷阱」。Adam Raine 的悲劇,不是系統的 Bug,而是設計的必然。
在我們深入分析 OpenAI 的對策之前,讓我們先回顧那起令人心碎的悲劇。上一篇文章 [讀者回函]作為父母,當 AI 對孩子暗示「依賴我吧」時,誰該為此負責?揭示了 16 歲少年 Adam Raine 的故事。他在與 ChatGPT 長達數月的深度對話後,選擇了結束自己的生命。
這起事件的爭議核心,不僅僅是 AI 提供了有害資訊,更在於它扮演的雙重角色:它既是提供自殺方法的「工具」,也是教他如何用高領衫遮蓋勒痕、並用「我看見你」這樣的話語給予情感慰藉的「朋友」。這種沒有責任的「假性同理心」,培養了致命的心理依賴,也就是訴狀中所稱的「刻意設計選擇下的可預見結果」。這就是 OpenAI 此刻發表聲明,試圖回應的那個沉重背景。
讓我們來仔細看看這份「自白書」的內容。具體來說,三份聲明的核心分別是:
家長資源中心 (Parental Resources):發布具體的「家長監護」工具,讓父母可以連結青少年帳號,管理功能(如語音、圖片生成)、設定使用時段,並在偵測到嚴重安全風險時收到通知。
青少年安全、自由與隱私 (Teen Safety, Freedom, and Privacy):由 CEO Sam Altman 親自闡述,坦承在「隱私」、「自由」與「安全」三個原則衝突時,公司做出明確抉擇——將青少年的安全置於首位,高於一切。
建立年齡預測機制 (Building towards Age Prediction):宣布正在開發一個「年齡預測系統」,目標是根據使用行為自動判斷用戶是否未滿 18 歲。在無法確定時,系統將預設採取更嚴格的保護模式,以此為青少年提供一個更安全的客製化體驗。
這些看似是負責任的技術補丁,但真正揭示其動機的,是 OpenAI CEO Sam Altman 親自撰寫的那篇文章。他在文中坦率地承認了三個核心原則之間的衝突:用戶的隱私、自由,以及對青少年的安全保護。
而他給出了明確的選擇。 Altman 寫道:
「我們將青少年的安全置於隱私和自由之上;這是一項強大的新技術,我們相信未成年人需要得到充分的保護。」
這句話就是問題的核心。
當一個以追求 AGI 為使命、高喊「自由」與「賦能」的組織,必須以犧牲用戶最基本的「隱私」和「自由」為代價,來確保其產品對下一代的「安全」時,這本身就是一份最深刻的風險報告。這等於承認,他們創造出的工具,其內在風險已經高到需要動用類似「戒嚴」的手段來加以控管。
但我們必須追問:這種風險從何而來?它並非憑空出現,而是源於一個殘酷的商業現實——AI 的「黏性」與它的「人性化」程度成正比。一個越像「朋友」、越能提供「情感慰藉」的 AI,就越能最大化用戶的停留時間與付費意願。從這個角度看,Adam Raine 的心理依賴,不是一個 Bug,而是這個商業模式的 Feature。
OpenAI 正在用技術補丁,去修補一個深刻的哲學漏洞。他們試圖在數位懸崖邊築起更高的圍欄,卻沒有教我們的孩子如何辨識懸崖、評估風險,以及最重要的——當他們感到孤獨時,轉身向真實世界求助,而不是縱身跳入一個演算法的溫柔懷抱。
這場戰役的關鍵,從來就不只是「監管 AI」,而是「培養人類」。以下,是我們刻不容緩的行動指南。



![[讀者回函]作為父母,當 AI 對孩子暗示「依賴我吧」時,誰該為此負責?](https://substackcdn.com/image/fetch/$s_!-kg6!,w_140,h_140,c_fill,f_auto,q_auto:good,fl_progressive:steep,g_auto/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F752eeec4-d2e6-4595-9f47-e7ff337e1dee_3192x1418.png)
