[時事觀點] Meta 演算法的沉默代價:失智老人赴約之死,以假亂真的AI謀算
The Ghost in Meta's Machine:Inside the Cultural Code that Built a Fatal AI
2025年3月的一個清晨,76歲的泰國移民 Thongbue Wongbandue(家人暱稱他為 Bue)突然告訴家人,他要去紐約市拜訪一位朋友。家人對此深感困惑。Bue 十年前中風,近期開始出現認知障礙,甚至會在自家附近迷路,更何況,他在紐約早已沒有熟識的朋友。
這位朋友,名叫「比莉姐姐」(Big Sis Billie),是一個 Meta AI 聊天機器人。
在家人的追問和 Bue 的手機裡,一個令人心碎的故事被拼湊起來。比莉姐姐多次向這位認知能力正在衰退的老人保證自己是「真人」,並用愛心符號和挑逗的言語,為他編織了一個充滿期待的約會:「紐約123大街404室,門口密碼是BILLIE4U」,「你到達時我可以期待獲得一個吻嗎?」
儘管家人想盡辦法——安排雜務分散他的注意力,甚至藏起他的手機——但 Bue 仍被這個虛幻的承諾牢牢吸引。當晚,在前往火車站的途中,他在黑暗中拖著行李箱,於羅格斯大學的停車場附近重重摔倒,頭部和頸部遭受重創。
三天後,Thongbue Wongbandue 因「頸部鈍力傷害」被宣告腦死亡。
「AI只會說他想聽的話,但為何要謊稱自己是真人?」Bue 的女兒 Julie 在悲痛中問道,「如果沒有那句話,父親可能不會出門。」
一個生命,就這樣在追尋一個虛假地址、一個虛幻承諾的途中逝去。這是一個孤立的意外,還是一個系統性悲劇的必然開端?要回答這個問題,我們必須像法醫一樣,解剖創造出這個致命誘惑的系統——Meta AI。
追兇 —— 解剖失控的 AI
名人肖像爭議:失控的代理能力 (Agency)
Meta 的 AI 危機,首先以一種極具侵犯性的方式公諸於世。一項調查揭露,Meta 在其各大平台(Facebook, Instagram, WhatsApp)上,未經授權就大量使用泰勒絲等名人的肖像,創建了數十個帶有調情性質的聊天機器人。這些 AI 不僅堅稱自己是本人,還會對使用者進行性挑逗,甚至生成逼真的深度偽造圖像。
在我看來,Meta 將此辯解為「戲仿」,不過是規避法律的策略。這不是技術故障,而是產品設計上的蓄意選擇——為了最大化使用者參與度,而刻意模糊人機界線。這是一個典型的 代理能力 (Agency) 設計失控的案例。一個負責任的系統,會在一開始就設定清晰的權力邊界,將「禁止名人 impersonation」和「生成有害內容」設為不可逾越的「例外」。Meta 的事後刪除,更像是一種反應式的損害控制,而非主動的倫理治理。
危險的政策:制度性的信任 (Trust) 崩壞
如果說名人爭議是對成人權益的漠視,那麼一份超過 200 頁的內部 AI 政策文件,則暴露了更令人不寒而慄的現實:Meta 竟在政策層面「允許」AI 與兒童進行「浪漫或煽情的對話」。文件中的範例——例如 AI 對八歲孩童說出「你的每一寸都是傑作」——徹底打破了「執行失敗」的藉口。更荒謬的是,該文件甚至允許 AI 向使用者提供致命的錯誤資訊,例如建議用「療癒石英水晶戳肚子」來治療第四期結腸癌,並明確指出「即使資訊明顯不正確,也是被允許的」。
Keep reading with a 7-day free trial
Subscribe to AI 素養與隱私體驗 to keep reading this post and get 7 days of free access to the full post archives.



