[讀者回函]「阿嬤,Line 群組那個『陳醫師』是在烏白講啦!」
When AI Lies to Grandma: A Designer’s Diary on Fighting Deepfake Audio with Trust Design
雖然人住在加拿大,但我手機裡的「家族 Line 群組」卻比 Montreal 的時鐘還準時。每天台灣時間早上六點,叮咚聲準時響起。
以前是蓮花早安圖,最近卻夾雜著穿白袍的「陳醫師」。
隔著 13 小時的時差,我看著群組裡的長輩們熱烈討論著「細菌療法」,心裡卻是一陣涼意。身為 AI/UX 顧問,我一眼就看出那個「醫師」是 AI 生成的假人。但最讓我無力的,不是技術的濫用,而是當我在群組裡打字解釋時,長輩們回傳的那張貼圖:「年輕人不懂啦」。
這不是一篇冷冰冰的分析報告,這是我——個遠在海外的設計師晚輩,試圖跨越太平洋,從演算法手中搶回家族信任的筆記。
這篇文章嘗試用一種不同的虛構故事敘事方式:透過一位 Z 世代 UX 設計師孫子的觀察筆記,帶入我們對 AI 語音信任(Audio Trust)的探討。在這個故事裡,有阿嬤道地的閩南話勸世智慧,也有數位原住民對演算法操弄的清醒反思。這不只是一篇科普,也是台灣家庭餐桌上正在發生的真實對話。
社群討論熱點:全台焦慮總動員
這場風暴不只發生在我家,更在各大社群引爆,互動破 10 萬:
PTT/Dcard(500+回文):八卦板熱議「AI 假醫師抓不到人」,網友分享阿公停藥案例,討論醫師法修訂。家長板則開始教學「家庭查證 SOP」(如便利貼四問法)。
Facebook 長照團(數萬互動):破萬人討論爸媽停藥慘痛經驗,熱門貼文「教爸媽四個問題」獲 2K 讚。事實查核中心留言區充滿「長輩群組瘋轉,救命!」的求助聲。
Instagram/TikTok:Z 世代發起
#陳志明醫師與#AI詐騙拆解短片,示範嘴型不同步等破綻,觀看破 10 萬。Line 群組/Twitter:從瘋傳假影片到瘋傳闢謠公告,親友群成為攻防最前線。
這顯示出共識:年輕人憂心受害、專家推動教育,而這場事件或許將催生台灣 AI 醫療新法。
📝 觀察筆記 Day 1:藥袋裡的秘密
晚餐後幫奶奶整理藥盒,發現降血糖藥剩了一大半。 「阿嬤,你這禮拜沒吃藥喔?」
奶奶揮揮手,一臉不屑:「藥仔就是毒,食久身軀會壞了了!(藥就是毒,吃久身體壞光光)我看那個陳醫師講,糖尿病是被細菌『咬』出來的,只要殺菌就好。」
我接過她的手機,螢幕上是一個穿白袍、戴眼鏡的男子,背景是乾淨得過分的診間,聲音溫和篤定:「各位長輩朋友,其實你的病是被『菌』吃出來的...」
身為從小在社群媒體長大的 Z 世代,我的「演算法雷達」立刻響起。這個畫面太完美、太乾淨,那個嘴型的抽動幀數(frame rate)跟聲音有些微的時間差。我知道這是什麼——這是專門餵給長輩的「演算法毒藥」,用 Deepfake 生成的假醫師。
但對奶奶來說,那就是一位比醫院醫生更有耐心、更願意講台語跟她搏感情的「活神仙」。
為什麼我講破喙(講破嘴),阿嬤還是信假的?
傳統的識破教育對長者效果有限,因為長者感官衰退且 AI 詐騙已演化為針對性的信任設計。詐騙集團利用權威形象、同情共鳴與恐懼驅動,建立封閉的信任迴圈,使單純的事後辨識防線失效,必須轉向系統性的信任設計防禦。
1.1 防線設錯了:我們在抓漏,騙子在築牆
面對「陳志明醫師」這類 AI 詐騙,我們直覺的反應通常是:「阿嬤,這是假的啦!」、「這是 AI 做的!」
但現實是殘酷的:長輩的視力聽力衰退,根本看不出那些微妙的生成瑕疵;當他們已經被影片中的溫情攻勢打動,一句冷冰冰的「這是 AI」根本無法動搖他們的信任。而「面對面看醫師」往往是事後補救,那時他們可能已經停藥一個月了。
問題不在「長輩不夠聰明」,而在「我們把防線設在『事後辨識』」。當詐騙手法已經融入設計本身,光靠「識破」是不夠的。
📝 觀察筆記 Day 3:無效的真相
我試著跟奶奶解釋:「阿嬤,這是電腦畫出來的假人啦,你看他的手怪怪的。」還找了事實查核中心的文章給她看。
奶奶生氣了,用台語回我:「我食鹽多過你食米!(我吃的鹽比你吃的米多)人家講得這有道理,還有圖表,哪有可能講甲喙角全波是假的?(哪有可能講得口沫橫飛是假的)」
爭執後,她躲回房間繼續看影片。我在門外聽到影片裡的聲音:「家人不理解沒關係,因為這是最新的革命性療法...」
我突然感到一陣寒意。這不就是我們 Z 世代最熟悉的「同溫層綁架」嗎?演算法先把你隔離,再餵養你恐懼。這套劇本,現在被用來對付我最親愛的阿嬤。我輸了,不是輸給技術,是輸給了這套精密的「信任設計」。
1.2 拆解陳醫師:這是一場精心設計的信任魔術
為什麼這些影片這麼有效?讓我們拆解這套詐騙流程中的設計操弄:
詐騙步驟 涉及的信任機制 設計層面的操弄 步驟1:建立權威 身份認同 白袍 + 溫和語調 + 醫院名號 → 觸發「社會啟發式信任」,讓長輩直覺認為「這是專家」。 步驟2:同情共鳴 親和力 「我理解你的焦慮」+ 放慢語速 → 營造「擬人化親近感」,讓長輩覺得「這個醫師懂我」。 步驟3:製造焦慮 恐懼驅動 放大副作用風險 + 重複播放 → 進行「情緒操弄」,讓長輩陷入恐慌。 步驟4:提供解方 交易誘惑 「革命療法」+ 稀缺感 + 高價 → 使用「設計誘導」,在焦慮最高點提供唯一的出口。 步驟5:免疫異議 預防針 「這是未公開秘密」 → 將家人的反對框架為「無知」,鞏固封閉的信任迴圈。
📝 觀察筆記 Day 5:靈光乍現
既然「指出破綻」無效,我決定放棄糾結在「真假」上。我看著奶奶專注的臉,突然想到:這不是技術問題,這是信任邏輯的問題。
不是教阿嬤「看出假」,而是教她「問對問題」。
我在筆記本上寫下了四個神奇的問題:
身份驗證:「你認識這個聲音嗎?」(對應真實身份)
異常感知:「聽起來有沒有奇怪的地方?」(對應感知可靠性)
脈絡評估:「為什麼現在要告訴你這個?」(對應意圖透明度)
風險檢測:「這個建議有沒有叫你停藥或花錢?」(對應利益衝突)
這四個問題,其實正對應著 UX 設計中最核心的信任原則。
Audio Trust:不只是科技,是找回信任的設計
Audio Trust 是指語音系統的可信度設計,包含透明度、可解釋性與可控性等六大原則。透過在互動中揭示 AI 身份、解釋決策邏輯並賦予使用者控制權,可將信任從直覺感知轉化為可驗證的系統機制,防止語音特徵被惡意濫用。
📝 觀察筆記 Day 7:當我試圖用 AI 對抗 AI
我打開 GitHub,找了幾個 Deepfake 檢測工具想幫奶奶把關,但我發現了一個新領域:Audio Trust(語音信任)。
原來,聲音的「可信度」是可以被拆解、被設計的。奶奶常說:「真真假假,假假真真,人聲才聽會出感情。」但在 AI 時代,連「感情」都可以被參數化。如果詐騙集團在「設計信任」,那我們該如何「設計防禦」?
2.1 什麼是 Audio Trust?(翻譯給阿嬤聽的版本)
簡單來說,Audio Trust 就是「你怎麼知道一個語音是安全可信的」。對於設計師與產品人來說,它是一個多維度的動態過程,包含感知可靠性、誠信度、勝任能力與安全感。
2.2 聲音裡的秘密:為什麼這個假人聽起來這麼誠懇?
研究發現了幾個影響語音信任的關鍵因素,這些因素既是設計的機會,也是詐騙的武器:
發現 1:語調傳達信任 研究發現:溫暖、上升的語調(如「好的,我幫您看看」)被認為更值得信任。
危機:這正是陳醫師詐騙的關鍵——他的語調完美複製了真正醫師的「同情」。 解法:設計者的挑戰是,如何在「建立親和力」與「防止冒充醫師」之間取得平衡?
發現 2:音調代表權威 較低音調的 AI 語音常被認為更具支配感與可信度。
危機:詐騙語音往往刻意壓低音調,營造權威感。 解法:不應僅靠音調判斷,需結合身份標籤。
2.3 六個設計原則:我用來保護阿嬤的護身符
基於上述發現,我們必須建立一套設計原則,來對抗惡意的信任設計。我看著奶奶的反應,一條條驗證這些原則的重要性:
原則 1:透明度 (Transparency)
原則:在互動開始時清楚標示身份。例如:「我是台大醫院的 AI 語音助手」。
孫子 OS:如果陳醫師影片一開頭就說「我是 AI 語音助手」,奶奶還會這麼信嗎?至少她心裡會有個底:「這不是真醫師」。透明度不是破壞信任,而是建立「知情」的信任。
原則 2:可解釋性 (Interpretability)
原則:解釋決策邏輯,並提供來源。例如:「我建議這個方案,是因為根據您的最新驗血報告...」。
孫子 OS:陳醫師只說「這是革命性療法」,卻說不出數據來源。如果系統能強制要求「每一條醫療建議都要附上來源連結」,這些假影片早就露餡了。
原則 3:可控性 (Controllability)
原則:讓使用者能隨時停止、質疑或轉接真人。
孫子 OS:奶奶看影片時是被動的,只能一直聽。如果是好的設計,應該有一個按鈕讓她隨時能問:「等等,這句話是什麼意思?」或者「我要轉接真人確認」。
原則 4:適應性 (Adaptability)
原則:根據使用者反饋調整,例如對長輩使用更清晰、更慢的語速,但絕不進行情緒操弄。
孫子 OS:陳醫師的影片語速慢得剛剛好,完全適配長輩的聽力。這說明詐騙集團比正規醫療體系更懂「適應性設計」,只是用錯了地方。
原則 5:期望設定 (Expectation Setting)
原則:清楚說明 AI 的能力邊界,不承諾無法達成的結果。
孫子 OS:正規醫生會說「這藥有副作用」,假醫生只說「包醫好」。期望管理的缺失,正是長輩轉向詐騙的主因。
原則 6:社會倫理考量 (Socio-ethical considerations)
原則:尊重隱私,不未經授權使用語音,並建立問責機制。
孫子 OS:這些影片利用了大數據精準投放給有糖尿病標籤的長輩,這是最惡劣的隱私濫用。
這不是我亂講的:史丹佛研究怎麼說?
Stanford 研究證實 AI 可靠性取決於訓練數據品質,而 HCI 實證研究顯示使用者特徵是影響信任的關鍵。結合 UX 的透明度原則,這些研究共同支撐了從源頭數據管理到終端互動設計的信任防禦體系,確保框架的有效性。
3.1 源頭管理:垃圾進,垃圾出(詐騙數據訓練出詐騙 AI)
Stanford 的研究揭露了答案:研究者 Ludwig Schmidt 和 Diyi Yang 指出,AI 的可靠性取決於訓練數據的品質。如果數據本身有偏見(例如充滿詐騙話術的網路數據),AI 就會複製這些偏見。這強調了源頭管理的重要性。
3.2 UX 關鍵:讓阿嬤知道「他在做什麼」
Roxanne Leitão 的 AI 醫療 UX 研究提供了佐證:臨床醫師與患者必須了解 AI 何時介入、在做什麼,同時保持對 AI 的控制。這不僅是為了好用,更是為了安全。
3.3 人本設計:別怪長輩笨,是系統沒學會體貼
HCI 系統研究的驗證:文獻回顧發現,使用者特徵(如技術素養、文化背景)是影響信任的三大因素之一。長輩可能因為技術素養較低,更容易信任 AI 語音,但也更容易受騙。因此,我們的設計必須針對這些特徵進行調整。
我們來做點有用的:家庭驗證 SOP
建立家庭防線需從共同查證與對話開始,而非單向糾正。透過約定「四個信任問題」與實體便利貼提醒,將抽象的防詐概念轉化為長者可執行的日常習慣,建立跨世代的信任同盟,用關係連結對抗演算法隔離。
📝 觀察筆記 Day 14:通關密語
讀完這些研究後,我改變了策略。我不跟奶奶爭辯真假,而是用台語跟她說:「阿嬤,其實我也很驚,現在電腦太厲害。毋通別人講啥你就信啥,我們要自己顧自己。」
我不教她看破綻,而是跟她約定:「若講到錢,講到藥,先打電話予醫生。」
我們約定了「四個問題」。現在,當她看到奇怪的影片,她會先問我:「這個聲音怪怪的嗎?」而不是躲起來看。 我們建立的不是防火牆,而是同盟關係。
如果你是長者的子女
立刻做:
□ 共同觀看與提問:和長者一起看一次 YouTube,教他們問一個簡單問題:「這是真人醫師還是 AI?你怎麼知道?」
□ 實體便利貼:把你長輩常用的醫療 app/頻道的「驗證方法」寫下來、貼在他手機背面或冰箱上。
□ 建立「家庭驗證信號詞」:約定好,如果看到涉及「停藥」或「購買」的建議,先一起打電話給主治醫師,再做決定。
如果你是媒體人或內容編輯
立刻做:
□ 事實查核標註:在報導醫療 AI 新聞時,主動附上「Audio Trust 檢核表」。
□ 避免標題黨:不使用「AI 神醫」、「奇蹟療法」等可能誤導長輩的標題。
□ 教育內容製作:製作適合長輩觀看的「台語版防詐短片」,用他們的語言溝通。
如果你是平台負責人
立刻做:
□ 演算法倫理審查:檢查推薦演算法是否過度推播「高情緒煽動」的醫療內容給特定年齡層。
□ 強制標籤機制:落實 AI 生成內容的強制標示,並在醫療類內容中加入顯眼的「查證提醒」。
如果你是政策制定者
立刻做:
□ 推動標籤制度:支持「AI 語音身份標籤」,就像食品標籤一樣,合成語音必須標示。
□ 倡議 Audio Trust 標準:呼籲建立評估醫療 AI 語音系統的審核清單。
📝 觀察筆記 Day 21:新挑戰出現
今天奶奶轉傳了一個影片給我,這次不是 AI 假人,而是有人用 AI 變聲器假冒「遠房親戚」打電話來借錢。 「阿孫,這個聲音好像你那個住在美國的表叔喔。」奶奶疑惑地說。
我發現,詐騙手法進化了。單純的「四個問題」不夠用了,我們需要更進階的防禦。這場仗,才剛開始。
📝 觀察筆記 Day 30:長期的警惕
現在,每週日晚餐後變成我們的「偵探時間」。我們會一起看一個網路影片,討論它是真是假。 奶奶有時候還是會被騙,但她不再害怕承認。「人老了目珠花花(眼睛模糊),但心肝要清明。」她說。 防詐不是一次性的疫苗,而是像刷牙一樣的日常衛生習慣。
未來的挑戰:當詐騙比我們進步得更快
雖然我們有了初步的框架,但面對 AI 的指數級進化,我們必須誠實地面對下一波挑戰:
多模態詐騙的崛起:未來的詐騙不會只是語音或影片,而是結合即時視訊、語音互動甚至社交工程的「全方位包圍」。Audio Trust 必須升級為 Multimodal Trust。
信任的轉移風險:當長者不再信任網路,他們轉而依賴子女。但如果子女也被深偽技術(Deepfake)欺騙了呢?信任鏈條的每一個環節都可能斷裂。
詐騙的逆向進化:當正規 AI 系統都標示「我是 AI」,詐騙集團可能會反其道而行,刻意不標示,甚至偽造「真人認證」。
我們需要的,不只是一套設計原則,而是一個Audio Trust 社群。一個由設計師、工程師、心理學家和像你我這樣的家庭成員組成的防禦網絡。
信任不是靠運氣,是靠設計
陳醫師事件不是個案,而是一個信號。當 AI 語音已經逼真到難以分辨,我們不能靠「教人分辨」來解決。我們需要設計者、平台、政策制定者的系統性改變。
這不只是技術問題,更是倫理問題。
每一次我們選擇在語音中加入「同理心」,每一次我們決定隱瞞身份還是透明揭示,我們都在「設計信任的邊界」。那個邊界,決定了長輩是被保護,還是被欺騙。
信任,是我們必須刻意設計的東西。不設計,就會被惡意設計。
📝 觀察筆記 Final Day:不再是受害者
昨天晚上,奶奶突然拿著手機跑來找我,神情嚴肅。「阿孫,你聽這個。」
影片裡是一個賣保健食品的廣告,聲音激昂。「這個聲音...是不是假假的?伊講話都沒換氣(他講話都沒換氣)。」奶奶問。
其實那只是普通的加速廣告,不是 AI。但我看著奶奶,忍不住笑了出來。「阿嬤,你現在耳空比我還利(耳朵比我還靈)。」
她得意地收起手機:「哼,我才袂予伊騙去。(我才不會被他騙去)我現在都先聽聲音,再看人。」
那一刻我知道,我們贏了。不是贏過 AI,而是贏回了面對未知的勇氣。科技也許會越來越真假難辨,但只要我們還願意互相查證,信任就永遠在我們手裡。
這場仗還沒結束(事件追蹤檔案)
陳醫師事件於 2025 年 12 月爆發後,已成為台灣媒體與社群的熱議焦點。以下是截至 2026 年 1 月初的後續發展整理,提供給持續關注此議題的讀者:
🏛️ 官方與法規行動
衛福部開罰:2025 年 12 月 30 日,衛福部確認該頻道違反醫師法與詐欺罪,通報數位發展部移除影片,並由地方衛生局追查幕後帳號。部長石崇良表示,將研擬虛擬醫師的身分揭露機制。[2][3]
醫院嚴正澄清:北榮副院長李偉強與台大醫院皆證實「查無此人」,強調影片冒充醫院研究,傳播力強且標題聳動,極易誤導長輩。[4][6]
法規新戰場:輿論開始檢討平台責任(如 YouTube 演算法推薦),並討論將醫師法適用範圍擴大至 AI 虛擬人物。[1]
📢 社群與世代反應
長照社團的焦慮與互助:FB 長照社團成為重災區也成為闢謠前線,許多家屬分享長輩停藥的慘痛經驗,推動防詐教學貼文獲得數千次轉發。[14]
Z 世代的數位反擊:Instagram 與 TikTok 出現
#陳志明醫師與#AI假醫的拆解短片,年輕人開始用自己的語言教導辨識破綻(如聽診器異常、畫質過於平滑),讓防詐知識進入年輕人的同溫層。論壇的深度討論:PTT 與 Dcard 累積數百篇討論,焦點從單純嘲諷轉向「如何建立家庭查證 SOP」,顯示社會對 AI 詐騙的免疫系統正在被喚醒。
參考資料
Stanford Report: How Stanford researchers design reliable, human-focused AI systems
Bach, T. A., Khan, A., Hallock, H., Beltrão, G., & Sousa, S. (2022). A Systematic Literature Review of User Trust in AI-Enabled Systems: An HCI Perspective. International Journal of Human–Computer Interaction, 10.1080/10447318.2022.2138826
Copyright © PrivacyUX Consulting Ltd. All rights reserved.
Joshua 是 Agentic UX(代理式使用者體驗)的先驅,在人工智能與使用者體驗設計領域擁有超過 15 年的開創性實踐。他率先提出將用戶隱私保護視為 AI 產品設計的核心理念,於 2022 年創立 Privacyux Consulting Ltd. 並擔任首席顧問,積極推動隱私導向的醫療 AI 產品革新。此前,他亦擔任社交 AI 首席策略官(2022-2024),專注於設計注重隱私的情感識別系統及用戶數據自主權管理機制。


