[讀者回函]同一週被打穿創業不該有的玻璃心:Agent 席次收費、OpenAI CEO 長調查,與 Cursor 套殼
One Week, Same Bruise: Agent Seats, a Long Investigation, and Cursor’s Wrapper Play
序言:這週我桌上同時攤著三樣東西:一封問「agent 要不要照 seat 買單」的讀者來信、社群上轉瘋的 New Yorker 長調查、以及 Cursor 反編譯之後的爭議。它們看起來像三則不相干的產業新聞—我一開始也這樣以為。
作者補充:讀者來信裡那位創業家在排明年預算:若大廠把「每個 agent 都當成一個 seat」寫進企業授權,他要怎麼跟投資人解釋—明明用 AI 在縮編人力,軟體帳單卻可能不降反升?信還沒回完,時間線又餵我兩件事:Altman 的長調查、以及 Cursor 3.0 被拆出來的「套殼」討論。同一週裡,合約桌、創辦人敘事、產品拆解,像在輪流打同一個地方:信任。
先別急著站隊。讀下去你會需要兩把尺:一把看產品敘事跟工程現實差多遠;一把看合約裡那個還沒被定義的「使用者」接下來會不會變貴—最後兩把尺會指向同一件事:你以為你知道自己在付什麼、你在信誰。
身為一個靠「給創業家建議」吃飯的人,這種挫敗感最近特別尖:我嘴上在教人「long-term、build trust、做護城河」,但打開 X、Reddit、tech media,看到的卻是一個又一個在「找捷徑」的故事—而且很多還是我理論上應該替之辯護、甚至幫忙包裝的那種公司。 byteiota
在講 Cursor 之前,我想先把顧問濾鏡上的灰擦掉—不然你會以為我接下來只站在道德高地。
上個月有一組創辦人來找我做 pitch review。產品本質上是把 GPT‑4o 套進一個法律文件審查流程,加了幾個不錯的 UX 細節。他們問我怎麼表達「我們的 AI」。我腦裡同時跑了兩條路:一條是「你們用的是 OpenAI,要不要在 about 頁寫清楚」;另一條是「如果你不寫,這輪 VC 大概不會主動問」。我最後選了中間路—幫他們把措辭改成 powered by cutting-edge foundation models, fine-tuned for legal context。合法,好聽,也沒說謊。但我知道那不是我最誠實的版本。
所以有時候我會在 call 上卡住那兩秒,心裡想的其實不是措辭,而是:「我到底是在幫你設計 positioning,還是在幫你設計一個可維持的 self‑deception?」那兩秒,比後面任何一段二手報導摘要,都更接近我這週真正在過的生活。
當你發現「自家 AI」其實站在別人肩上
站在巨人的肩膀上賣 workflow 合理;不合理的是話術讓人以為肩膀是你長的。
先講 Cursor。幾個禮拜前,開發者開始在社群貼出反編譯後的證據:Cursor 3.0 新版 Agent,在技術上高度依賴並封裝了 Anthropic 的 Claude Code/claude‑agent SDK,甚至在本地代理層裡,把系統提示中的「Claude」直接替換成「Cursor」。這不是單一謠言,而是多組截圖、程式碼片段、實測結果交叉指向的結論。 x
如果你是一般使用者,看到這裡直覺可能是:「啊,所以 Cursor 根本沒有自己的智能,只是在 Claude 上包皮?」
但如果你像我一樣,平常要幫創業團隊拆商業模式,就會知道事情沒有那麼簡單。Cursor 除了模型本身,確實做了不少工程化和產品層的工作:
幫使用者扛掉一堆「怎麼跟模型講話」的 friction。 byteiota
從「創業顧問」的腦袋來看,這個 play 很合理:
與其自己搞一個半成熟模型,不如站在 Claude 的肩膀上,把心力放在體驗、垂直場景、工程化整合。
問題不在這個選擇本身,而在「說法」。當你在官網、訪談裡用的語言,讓使用者以為這是一個「自家 AI」、「專屬 agent」,甚至暗示背後有某種 proprietary magic,而事後被拆出來大家發現:核心 agent prompt 幾乎就是 Claude Code,加上一層品牌替換—那麼,爭議就不再是技術,而是誠實。 linkedin
但我知道,在實務上,「價值」和「誠實」都很容易被解釋到很寬。Pitch deck 裡的一小行字:「powered by leading foundation models」就被當作一切的免責聲明。於是顧問的角色變成:幫創業家找到一種「技術上說得過去、法律上站得住腳、行銷上又聽起來雄心勃勃」的表述—前面那組法律新創,只是其中一個我還記得名字的版本。
那條線有時候細得幾乎看不見。
Altman 爭議:你在信技術,還是信敘事?
人格信用在基礎設施規模上不是八卦,是系統風險變數。
再把鏡頭拉到完全不同量級的一個人:Sam Altman。
Ronan Farrow 和 Andrew Marantz 為 New Yorker 做的那篇 18 個月調查,問的問題很直接:Sam Altman May Control Our Future—Can He Be Trusted?(他可能掌控我們的未來—我們能信任他嗎?) newyorker
這篇報導厲害的地方不在於爆什麼全新內幕,而是在於把一堆本來散落在不同時間線上的雜訊,串成一個「行為模式」:
在 Loopt 時期,就有員工覺得他說話「飄忽」、喜歡誇大;
離開 Y Combinator 的公開說法與私下敘述有明顯落差;
在 OpenAI 內部,Ilya Sutskever、Dario Amodei 等人在不同時間、不同文本裡,獨立寫下非常類似的結論:Altman 有持續的誠信問題。 reddit
報導裡,甚至有前董事會成員形容他「unconstrained by truth」—不受真相約束。有人說,他身上有兩個很少同時出現的特徵:一是強烈渴望被喜歡、被認可;二是對於誤導別人可能帶來的後果,展現出近乎冷感的無動於衷。 newyorker
身為顧問,看到這種描述其實會有一種莫名熟悉感。不是因為我認識 Altman,而是因為這種「又想被人喜歡、又願意拉高敘事到超過現實幾步」的創業者,其實並不少見。差別只在於:
大部分創業者掌控的是一家早期公司;
Altman 掌控的是一家自稱要「對齊 AGI、減少人類滅絕風險」的組織。
長文出刊後,Gary Marcus 在 Substack 寫了極短的〈Sam Altman, unconstrained by the truth〉:不跟 New Yorker 拼篇幅,借調查當主炮,自己只丟一句 “rings true to me”;後記再補一刀,說麻煩纏身時慣用手法是 hype 改敘事,並把同日「超級智能新政」讀成轉移注意力(對錯可另案討論,我看重的是他把「同一天」塞進論證)。 garymarcus.substack
“When he is in trouble, he often tries to change the narrative with hype.”
「每當他陷入麻煩,他慣用的手法就是用炒作來轉移敘事。」
收尾他丟給讀者一題,再自己先交卷:
“If some future OpenAI model could enable a massive bioweapon or cyberattack, would you really want Altman deciding, unilaterally, whether or not it is ok to release the model?”
「如果未來某個 OpenAI 模型可以啟動大規模生物武器或網路攻擊,你真的願意讓 Altman 一個人、不受任何制衡地決定該不該發布嗎?」
“I sure as hell wouldn’t. And after you read the Farrow-Marantz New Yorker investigation, you probably wouldn’t either.”
「打死我也不願意。而你讀完那篇調查之後,你大概也不會願意。」
Marcus 那篇讓我想到一件事:我在幫人修 pitch 時,其實也在選—要不要讓主炮先打。讀到這裡我會被逼回我那張桌子:Altman 的量級離我很遠,但「麻煩一出來就先改敘事」的手感,我在改創辦人 deck 的週期裡經常遇到。
因為我忽然想到一個不太舒服的對照:
在產品層,Cursor 的問題是「套殼」—對模型來源說得不夠明白;
在治理層,OpenAI 的問題是「套信任」—用一套高尚的安全敘事,套在一個被多人質疑誠實度的領導者身上。
兩者都在問同一個問題:
你到底願意把多少「不知道的部分」,交給一個你不確定能不能完全信任的人或產品?
我在 call 上卡住的兩秒:顧問角色的分水嶺
開頭那份 powered by cutting-edge foundation models 我還記得字面上的每個字—不是為了自虐;是每一件像 Cursor 這樣被放大檢視的故事,最後都會回來問我同一個職業問題:我到底站哪一邊。
這種時候,我會開始反省自己的工作。
顧問本質上是一種 leverage:
幫團隊把 pitch 調得更動聽;
幫產品找到一個更好講故事的位置;
幫創業者在 VC 面前,說出一個「又不算說謊、但也沒那麼誠實」的版本。
某種程度上,我們就是專業的 framing machine。
當 Cursor 這種案例出現,我很容易替他們想出一套 defend 的說法:
「我們從來沒說自己自研模型,只是強調體驗。」
「工程上採用 best‑in‑class 模型是合理選擇。」
「使用者是為整體工作流付費,而不只是基礎模型。」
這些說法其實都不假。但我也知道,只要再往前踏半步,就會變成另一個版本:
「我們有獨特的 AI 技術堆疊。」
「我們的 agent 和別人完全不同。」
有人問我:「Cursor 那個 disclaimer 夠不夠?」我的答案是:夠不夠不是技術問題,是你產品頁讓第一次看到的人,在 10 秒內會不會自然理解「你用了誰的模型」。如果不會,那個 disclaimer 是在保護你,不是在告訴使用者。這兩件事不一樣。
同樣地,當我在幫創業者看治理結構、安全聲明、risk disclosure 時,也很容易掉進一種「Altman 模式」:
我們知道風險很大,但先把故事講出去,之後再慢慢補安全機制;
先跟投資人說我們非常重視 alignment,具體措施之後再說;
先 sign 這份合約,到時候實在不行再 renegotiate。
New Yorker 那篇報導裡,有一段讓我印象特別深:董事會在罷免後的一通電話中,希望 Altman 能承認「自己確實有一條行為模式」,而他 reportedly 只反覆說:「This is just so messed up. I can’t change my personality.」 newyorker
作為顧問,我常常會在桌子的另一端,看到早期創業者用比較小號的版本重演這件事:
他們不一定是惡意欺騙,而是慢慢學會用更模糊、模稜兩可的語言,替自己爭取空間;
他們不一定想說謊,但逐漸習慣在壓力之下,先把「最好看的版本」講出來。
而我,有時候就在旁邊幫他們調整那個「最好看的版本」的措辭。這就是我的兩難:
如果完全站在「誠實原教旨主義」這一方,我會成為一個很難合作的顧問,因為現實世界的交易本來就充滿灰色地帶;
如果完全順著市場和資本的邏輯,我又會變成另一種高級「包裝工」,幫忙設計更聰明、更不容易被拆穿的套殼。
{合作廣告}
🧑🎓 UX 訂閱制學習計劃:把 human-in-the-loop 變成你的日常。這也是我會特別推薦 #UX訂閱制學習計劃 的原因:它不是一次性的 bootcamp,而是把借位、補位、入位拆開來,串成 3 月到 12 月的一條學習軸線。透過每月 Podcast 和專欄,先向不同領域的 UX / 產品 / AI / 服務設計講師「借位」
透過直播與 Circle 社群討論,在你的真實案子與問題上進行「補位」
捷徑為什麼會變成延遲爆炸的債?
這一代 AI 創業有一個很大的誘惑:捷徑太多,而且都很便宜。





