[讀者回函] 公司變成「可查詢物件Agent」時,先壞在治理權限邊界與資訊架構政治
When the Company Becomes a Queryable Agent, Governance, Permission Boundaries, and Information Architecture Politics Break Before the Org Chart
序言:Jack Dorsey 在 Sequoia 的訪談裡把 Block 的重構說得很乾淨:Slack、文件、程式碼、會議紀錄疊成一層對內智慧層,任何人都能「查詢公司」、用高透明度做決策。這套敘事對投資人很好懂—對資本市場說得通,不代表工程上是瑣碎好解的題(trivial);對做產品、資安、合規、內部工具的人來說,真正的題目是—當整間公司被做成單一可查詢物件時,誰能查、查到什麼粒度、以及哪一種說法算數、誰把它寫進系統。
這裡先埋一根刺:Jeremy Bentham 的全景敞視(Panopticon)在監控倫理裡常被討論的核心,不是「一定被看見」,而是永遠無法確知何時正在被看—不確定性本身就會改寫行為(Foucault, 1977)。後面談「透明 vs 全景敞視」時,我們會回到這根刺。
作者補充:我先把這場訪談當案例聽,不當「未來組織聖經」。它最有價值的地方在於:一間高度受監管的金融科技公司,如何把「裁員 40%」和「把全公司資料餵給一層 AI」放在同一個決策敘事裡。專欄要接的是效率敘事預設了哪種資料暴露面,而不是停在「AI 能不能讓公司更有效率」。
和交付團隊對焦內部副駕駛(copilot)時,我見過最常卡的點根本不是模型準不準—是會議裡人人點頭要合規,散會後沒有任何角色願意在「不可進索引」清單上簽名;結果預設全開,出事再補鍋。
「Mini-AGI」在產品語言裡,其實是「全公司 RAG」
公司級「智慧體」工程上就是把工作產物接成全公司 RAG。沒先劃清誰能讀什麼、沒處理索引與來源權限不同步,「透明」只會變成索引政治,跟儀表板長相無關。
Dorsey 口中的公司級智慧體,工程上接近把所有工作產物接成可查詢層;使用者體驗與治理上則是一次性把「誰需要知道」改成「預設可被系統讀取」,除非你再明確關閉權限—這是典型的預設納入、事後才退出(opt-out by design):預設進索引,靠事後關閉。方向上和 GDPR 對個資處理常要求的事先同意與明確法律基礎(opt-in)並不對齊;你在歐盟有員工、有資料主體、或客戶合約已引用歐盟標準條款時,這條張力會直接變成法務工單,不是「產品之後再說」。
訪談裡反覆出現的畫面是:傳統金字塔傳遞資訊太慢,所以要讓「公司本身」變成可被問答的對象(Sequoia Capital, 2026)。這與近兩年企業內部瘋做的「知識庫 + 副駕(copilot)」同一條路—差別在於 Block 把野心說成全公司層級、而且和裁員與角色縮減綁在一起講。
對設計與治理的人來說,先把這句壓進腦裡:透明度 = 存取控制政策的總和,跟多畫幾張儀表板無關。預設變成「資料可進模型、可查詢」時,優先該決定的是底下四件事,不是再加功能:
哪些資料類型永遠不得進入通用索引(可識別個人資料(PII)、客戶支援對話、未公開財務草稿的邊界如何定義)
查詢結果的權威版本由誰簽核—沒有簽核流程,所謂「官方說法」只是最後寫入者的偏見快取
員工在 Slack/文件裡的「半公開試探」還存不存在,還是一律變成可檢索證據
產品能不能主動說明「我沒索引哪些類資料」(負面能力),避免沈默讓使用者誤以為全宇宙都已進庫
若你負責介面與需求,把上一段的「負面能力」翻成可驗收的體驗,大概是:當問題落在我們刻意不納入的範圍,產品要說清楚「這類內容不在公司大腦裡、為什麼」,而不是只給空白或一句模糊的「找不到」—否則使用者會以為是自己問錯,或誤以為系統已涵蓋一切。這可以寫進使用者故事與驗收標準(acceptance criteria),不必停在設計原則簡報。
若沒有把以上當成上線放行門檻(ship)等級的設計課題,「查詢公司」在體驗上會很像搜尋引擎:看起來中立,實際上是索引政治。
還有一種比「沒人簽名」更陰險的落差,可稱為權限快照落後(permission state drift):公司大腦在建立時,會把文件、對話做成一份可搜尋的副本;但真正的開放與收回權限,每天都在 Drive、Slack、人事或法務系統裡改—離職、專案結案、資料夾上鎖。副本不會自動與那些變更同步。
很多團隊用定期批次更新這份「腦內索引」,中間就會有空窗:在來源那邊你已經沒權限了,問答層卻還能靠舊副本講得像真的—這就是檢索結果與當下授權脫鉤的結構風險(Amazon Web Services, 2025)。
所以就算有人敢簽「不可進索引清單」,已經進去的片段也不會自動消失;產品與工程得選擇要定期重編索引、在回答前依標籤過濾,或在每一次提問時向原系統再確認「此刻能不能看」,而不是把責任留在會議紀要。
這不必二選一「全部預先建索引」或「全部即時連線」。實務上常拆兩條路:變動慢、爭議低的內容(政策、產品說明、FAQ)先做成可快搜的快照,但要接受快照與權限標籤可能晚幾步才跟上;變動快、敏感性高的內容(客服工單、合約草稿、人事相關)改為使用者一問才去原系統取資料,讓「誰現在能看」由原系統當場判定,壓低快照落後造成的傷害。
較穩的預設常是兩條路並行(工程上常稱混合式 RAG):靜態知識走預先索引,動態敏感資料走即時連線;每一小段內容都帶著誰能看的脈絡,提問時再依現況過濾。重點是讓做路線與取捨的人看見—這是產品與架構選型,不是「會上有人簽名就會好」。
再往上抽象一句:公司 AI 安不安全,先是「誰能看什麼」的資料治理題,再才是模型有多聰明;光靠調提示詞(prompt)補不了權限破口。設計評審與 PRD 裡更值得先問:每一段被餵進系統的內容,有沒有清楚的權限屬性?使用者的提問到回答之間,有沒有機會回到權威來源核對「此刻是否仍可看」—而不是先比採用哪家向量資料庫(Amazon Web Services, 2025;見向量檢索與來源端授權脫鉤的討論)。
大廠押語意層,理由很硬。
OpenAI Frontier 那類商業敘事,用產品語言說就是:客戶紀錄、工單、營運數字散落在 Salesforce、SAP、Zendesk 等系統,不同的自動化助理(Agent)各自讀到不同版本,協作會直接打架;所以要賣一層「全公司共用、AI 讀得懂的單一真相」,再綁身份、權限與稽核紀錄當護城河(我在〈當 AI 軍團需要錢包〉裡拆過這條路線)。Dorsey 的「查詢公司」落在同一條光譜上,比較像賭基礎建設,而不是多喊一句願景口號。
賭注成立,不代表可以跳過輸入與寫入治理。〈AI Agent 治理的兩難〉裡我用 Kevin 場景寫過第二層困境:AI slop 進了公司知識庫,下一位同事用 RAG 檢索,系統把那份「看起來專業、實則空心」的報告當成證據鏈,再生成新一輪建議—垃圾進,垃圾出,決策大腦慢慢失智。
安全研究裡把「錯誤或惡意內容進索引後,反覆被檢索、再餵進模型」這條路徑模型化成對檢索增強生成(RAG)的知識腐敗(knowledge corruption)問題(Zou et al., 2024)—你現場未必遇到的是攻擊,而是治理失靈讓 slop 寫進庫;只要它留在可被檢索的層裡,結構上仍可能被當成「有出處的佐證」一再拉出來。
傳統孤島裡的錯誤多半是局部的:一個部門拿到爛報告,頂多污染一兩個決策循環。全公司 RAG 把錯誤變成系統性的:同一份 slop 一進索引,往後每個檢索到相近語意的決策都會被染色,又因為帶連結而看起來「有出處」。
錯誤的壽命從一場會議拉長到整個知識庫生命週期,直到有人發現、觸發重新索引或整庫汰換為止。治理篇裡我還設過來源錨定閘門(Source Grounding Gate):合成洞察要進技能庫(Skill)之前,得能引用至少兩段原始訪談,像 RAG 的引用標註(citation);否則 RACI 裡掛名的當責者(Accountable),扛的是空頭銜。對照本篇前面幾條設計課題:若沒有等價的「誰能寫入、寫入前附什麼出處」,扁平化只會加速幻覺被索引化。
還有一條和權限一樣致命、但常被當成「採用問題」打發的張力:〈AI 轉型真相:AI 內戰〉裡的生成式 AI 分水嶺(GenAI divide)—官方企業 AI 若從「控制慾」而非可用性與信任長出來,員工會用脚投票,回去用自己付費的 ChatGPT。
OpenAI 對近百家企業、約九千名工作者的調查裡,ChatGPT Enterprise 使用者自報活躍使用日平均省下約 40–60 分鐘(OpenAI, 2025)—前提是工具嵌進日常工作流程(workflow),而不是多一層額外審批。再漂亮的「全公司大腦」敘事,也敵不過一層難用的審批皮;數字救不了「控制慾勝過可用性」時的整體繞路。
把「繞路」從直覺講成可量化的架構風險:MIT NANDA《企業 AI 現況 2025》裡,在固定使用大型語言模型的員工中,約 90% 透過個人帳戶,而非公司採購的訂閱(Challapally et al., 2025);同一份報告裡,僅約 40% 的受訪公司曾採購官方企業 LLM 授權。重點不是把員工標成「刻意叛逃」—常常是官方管道根本沒鋪好或不可用,個人工具變成預設路徑。
Gartner 對 302 名企業資安領袖的調查顯示,約 69% 的組織懷疑或已握有證據,指出員工使用遭禁止的公開生成式 AI;並預測 2030 年前逾四成企業將遭遇與未經授權影子 AI(shadow AI)相連的資安或合規事件(Gartner, 2025)。數字代表的是資安領袖視角下的風險感知與前瞻判斷,不是全體企業或產品主管的普查。
「全公司大腦」與影子 AI 不是兩條無關的線,而是同一個控制失靈的兩面:一邊是官方索引曝露過頭(本文主線),一邊是資料流進未受治理的個人工具(洩露與對外合規壓力)。官方缺席、管制過緊、信任不足會交織在一起—兩邊都會讓治理更難。
這篇主軸談暴露面與邊界。統一層我承認必要;必要,且不夠。收斂成四個自問就好:大廠為何押語意層?進索引前誰能擋、誰敢簽「不可進庫」?進索引後誰為幻覺與漏網資料負責?這層上線後,員工還願不願意每天用,還是整體繞去個人工具?
{合作廣告}
🧑🎓 UX 訂閱制學習計劃:把 human-in-the-loop 變成你的日常。這也是我會特別推薦 #UX訂閱制學習計劃 的原因:它不是一次性的 bootcamp,而是把借位、補位、入位拆開來,串成 3 月到 12 月的一條學習軸線。透過每月 Podcast 和專欄,先向不同領域的 UX / 產品 / AI / 服務設計講師「借位」
透過直播與 Circle 社群討論,在你的真實案子與問題上進行「補位」
三種角色(IC/DRI/Player-coach)背後,藏著「責任外包給系統」
角色縮減時,問責會擠到「智慧層 + DRI」接縫;中階管理者被拿掉的不只是員額(headcount),還有緩衝與覆蓋。系統沒說清沒索引哪裡、又無法被申訴時,出事變可解釋性缺口,不只是 HR 架構圖能畫出來的。



