📌 本文重點
- Meta 把員工當 AI 代理訓練用「行為模擬器」
- 產業在「多收資料」與「先保護資料」兩路線分裂
- 模型能力暴衝但資料治理落後,風險呈倍數放大
這不是單一公司的道德滑坡,而是在 AI 競賽壓力下,整個產業正集體嘗試把「行為監控」重新包裝成「技術創新」。
問題不在於用資料訓練 AI,而在於:企業開始拿「人怎麼工作」這種最細緻、最貼身的行為軌跡,當成可以隨便開採的礦。
在這條線上,今天的 Meta 只是走得最粗暴、最高調的一個。
一、Meta 的 MCI:這不是遙測,是「把人當模擬器」
根據 Reuters 和 The Verge 報導,Meta 在美國員工電腦上部署 Model Capability Initiative(MCI):
- 記錄滑鼠移動、點擊、鍵盤輸入
- 偶爾截圖
- 在各種工作相關 app 與網站上持續運作
- 官方保證「不會用於績效評估,只用來訓練 AI 代理」
💡 關鍵: Meta 強調「不拿來打考績」,但真正關鍵是它把全套細緻行為當成 AI 訓練礦,改變了勞動與監控的邊界。
表面看,這跟一般企業內部的 遙測(telemetry) 很像:產品崩潰報告、API latency、功能使用頻率……但兩者有一個質的差別:
傳統遙測是量測「系統怎麼跑」;MCI 是量測「人怎麼活在系統裡」。
一般遙測:
- 收的是「事件」:某按鈕被點、某 API 被打
- 多半是彙總後的統計數據,與個別員工弱綁定
- 與 AI 訓練有關,但更多用於產品優化與穩定性
而 MCI 做的是:
- 記錄「完整操作序列」:滑鼠軌跡、輸入內容、畫面上下文
- 嚴格對應到特定員工帳號與工作情境
- 用來訓練能「模仿人類操作電腦」的 AI Agent
這是另一個等級:
- 公司不只是知道你完成了哪個任務,而是知道你怎麼完成每個任務,包括猶豫、試錯、切換視窗的節奏
- 這些細節會被餵給模型,成為之後能在螢幕上替代你操作的一套「人類模板」
換句話說,員工被當成 AI 代理的「全身動作捕捉裝」。
Meta 說「不會拿來打考績」其實不重要,因為真正的衝擊有兩個:
- 勞動不安全感:你知道公司正在用你自己的操作,把你未來的替代者訓練得更好。
- 監控常態化:一旦這種粒度的行為數據被視為「合理訓練資料」,之後所有公司都會想用「我們也在做 AI」來擴張監控正當性。
在這裡,紅線不是「有沒有收資料」,而是:收的是誰、什麼粒度、能不能退出、是不是 AI 不可或缺的最低必要集。
二、兩條產業路線:拿資料的 Atlassian vs. 擋資料的 OpenAI
與 Meta 的「行為採礦」相比,產業裡正在出現兩條幾乎相反的路線。
1. Atlassian:把預設 opt-out 當成新常態
根據多篇報導與 Hacker News 討論,Atlassian(Jira、Confluence 母公司)最近做了兩件關鍵事:
- 預設啟用用戶資料收集,用於訓練自家 AI
- 需要企業自己去關閉或申請不被用於訓練
這種做法的訊號很直接:
「我們先拿,除非你有意識、有時間、有權力來反對。」
對多數中小企業與個人團隊來說,實際結果就是:
- 你的專案敘述、任務描述、技術決策、商業 roadmaps
- 在沒有實質理解與談判空間的情況下,默默進了別人模型的胃
從產品角度講,Atlassian 的考量並不難理解:
- 內建 AI 助理若要有價值,就需要讀懂你團隊真實的工作內容
- 第一手專案協作資料,是極好的訓練與微調素材
問題在於預設值:當「要不要被用來訓練」變成一個深藏設定裡的開關,用戶實際選擇權幾乎是零。
💡 關鍵: 當「訓練授權」被藏成預設開啟的小開關,多數用戶事實上是被默默強制 opt-in,形同放棄資料談判力。
2. OpenAI:把「減少能看到的東西」變成賣點
對照之下,OpenAI 最近推出的 OpenAI Privacy Filter(開源 PII 過濾模型)則幾乎是反向路線:
- 精準偵測並遮蔽個資(姓名、電話、地址、證號等)
- 開源權重,讓任何人都能在自家系統前面加一層「隱私防火牆」
這背後的賭注是:
未來真正有價值的,不是你偷偷看到多少原始資料,而是你能幫客戶「藏住」多少不該被任何模型看到的敏感細節。
一邊是 Atlassian 式:預設收集再說;另一邊是 OpenAI 式:預設先過濾再處理。兩者都在做 AI,但數據治理哲學完全不同。
Meta 的 MCI、Atlassian 的預設收集,與 OpenAI 的隱私濾器,其實構成了 AI 時代的關鍵選擇題:企業是把「取得更多行為數據」當護城河,還是把「減少自己看見的敏感資料」當護城河?
三、當模型夠強、又接近攻防場景時,資料風險是乘法不是加法
Anthropic 最近就同時踩到兩顆地雷:
- 被部落格質疑在安裝工具時「偷偷裝 spyware bridge」,雖然細節仍有爭議,但光是「類似間諜軟體」這個指控,就足以動搖技術社群信任。
- 更嚴重的是 Claude Mythos 事件:這個被官方視為「落入壞人手裡可能很危險」的安全模型,據 Bloomberg 和 The Verge 報導,被一小群未授權用戶透過承包商帳號與公開 OSINT 工具繞進去。
這兩件事的組合,讓一個現實赤裸浮出來:
當模型越強、越接近安全敏感場景時,資料蒐集與管控的任何失誤,帶來的不是「多一點風險」,而是「整個風險結構被改寫」。
為什麼?
- 一個強大的攻防模型(例如 Mythos)一旦暴露權限,就可能被用來自動化發掘漏洞、量產攻擊腳本、優化滲透流程
- 這些能力疊加在外部的 OSINT 工具、被竊取的行為數據上,會產生組合爆炸式的攻擊面
同理,如果未來真的出現:
- 大量企業把員工操作軌跡(像 Meta MCI 收集的)丟進雲端
- 又在同一個雲上跑高能力的攻防模型
那麼一旦某個環節被突破,你丟掉的就不只是「文件」或「密碼」,而是整個組織的操作習慣、流程弱點、常見錯誤模式——這些都是攻擊者夢寐以求的素材。
這就是為什麼,我會把 Meta 的滑鼠記錄、Atlassian 的預設收集、Anthropic 的 Mythos 事件放在同一條時間線上看:它們共同指向一個事實——AI 能力曲線在往上衝,但資料治理的安全曲線並沒有同步抬升。
在這個落差區間內,風險不是線性增加,而是成倍放大。
💡 關鍵: 當「高能力模型」與「細緻行為數據」同時存在且治理落後時,每一次疏漏都可能把風險從加法推成乘法。
四、這三種人各自要付出的代價與可以做的選擇
1. 對產業:信任流失與人才外流,會反噬模型能力本身
對大公司來說,短期把「更多行為數據」當勝負關鍵,很誘惑,但中長期有兩個反效果:
- 信任品牌崩壞:一旦被貼上「會偷看一切」標籤,企業客戶就會在招標文件裡開始硬性要求:不能用於訓練、必須可審計、必須 on-prem。你會被迫退回更低資料可見度的環境做模型,等於自廢武功。
- 人才拒絕加入或留任:最敏感、最懂風險的頂尖工程師與研究員,會用腳投票,轉向 強調隱私與透明治理 的公司。這些人才外流,最終會拉開模型本身的實力差距。
真正的 AI 護城河不是你偷到多少內部行為數據,而是有多少人願意心甘情願、清楚知情地把資料交給你。
2. 對開發者與技術決策者:選工具要看三件很具體的事
如果你是 CTO、架構師或產品負責人,現在選 AI 供應商時,建議至少做到:
- 看清「訓練用途」條款:
- 有沒有明確寫「此路徑的資料不會被用於模型訓練或微調」?
- 是預設 opt-in 還是 opt-out?怎麼退出?需不需要額外付費?
- 要求可審計的資料流:
- 能不能在你這一側,插入像 OpenAI Privacy Filter 這種前處理?
- 日誌裡能不能回溯每次請求傳了什麼、有沒有被遮蔽?
- 區分「遙測」和「行為錄影」:
- 允許產品收集崩潰報告和性能指標,是合理的
- 但凡看到「螢幕錄影」「鍵盤全記錄」「滑鼠軌跡重放」這類,請直接當成高風險監控軟體看待,除非你真的有充分的法律依據與員工同意機制。
3. 對一般上班族:你要主動要求三種權利
如果你是被要求安裝「工作用監控工具」的員工(無論在科技或傳統產業),你有理由也有必要問清楚:
- 知情權:工具具體收哪些欄位?有沒有截圖?有沒有鍵盤全記錄?資料存多久?誰有權看?
- 用途邊界:
- 是否明文禁止用於績效、考勤、懲戒?
- 是否會被拿去訓練公司內部或外部 AI 模型?如果會,是不是可識別到個人?
- 選擇與退出權:
- 有沒有 opt-out 機制?如果沒有,是否有「不在你個人設備上安裝,只允許在受管控虛擬桌面內運作」的替代方案?
在很多司法轄區,這已經不是「公司好不好心」的問題,而是資料保護法與勞動法的硬性要求。你提出來,不是刁難,而是在幫公司避免掉進下一個 Anthropic / Meta 級別的聲譽危機。
結論:AI 長期贏家,是敢少收資料的人
我對這一波趨勢的判斷很直接:
未來能存活、甚至成為巨頭的 AI 公司,不是那些偷到最多滑鼠軌跡的人,而是最早把「可審計、可選擇、最低必要原則」做成標準產品能力的人。
所謂「最低必要原則」,在 AI 時代就是:
- 模型只看為完成當下任務最少、最剝離個資的資料
- 誰在什麼情境下看到原始資料,事後都可以被追溯
- 每一筆被拿去訓練的資料,都能說得清楚:誰同意的,何時同意,可以怎樣撤回
Meta 的 MCI、Atlassian 的預設收集、Anthropic 的 Mythos 事件,都是把產業推向同一個選擇:你可以靠偷吃行為數據衝短線,也可以靠尊重資料與人的邊界蓋長線基礎建設。
如果你是做產品與技術決策的人,現在就該用採購預算和技術選型,投票給後者;
如果你是一般員工,則可以從今天開始,習慣在每一個「請安裝此工作工具」的時刻,多問一句:
它只是量測系統,還是在複製一個「未來可以取代你」的你?
這個問題問得越早,整個產業離健康的 AI 落地就越近一步。
🚀 你現在可以做的事
- 檢查團隊現用工具的隱私與訓練條款,確認是否預設用你的資料訓練 AI
- 在下一次選型或續約時,列出「可審計、可選擇、不默默訓練」作為評估指標
- 當公司要求安裝監控或「效率」工具時,主動詢問收集內容與是否用於 AI 訓練

