Paramita Loom Paramita Loom
EN
← 知識

Perplexity AI 被控與 Meta、Google 分享用戶個資,再度捲入侵犯隱私官司

Perplexity AI 被控與 Meta、Google 分享用戶個資,再度捲入侵犯隱私官司

Perplexity AI 被控與 Meta、Google 分享用戶個資,再度捲入侵犯隱私官司

一句話版本

Perplexity 又畀人告,今次重點唔係答案準唔準,而係被指喺未充分講清楚同未攞到明確同意之前,將用戶同 AI 對話相關資料傳去 Meta 同 Google,呢件事直接提醒我哋 AI 產品嘅風險核心其實係資料流向同責任歸屬。

點解重要

  • 隱私風險已由抽象變成可訴訟嘅具體行為:今次唔係泛泛而談「AI 可能收集太多資料」,而係指控登入後透過追蹤器把對話同個資交畀第三方,代表只要資料分享鏈條講唔清,產品設計本身就可能變成法律風險。
  • AI 對話內容被視為敏感資料處理場景:用戶同 AI 傾偈往往會講工作、個人需求甚至私密內容,如果平台將呢啲內容當一般網站分析資料處理,法律同用戶期待之間就會出現明顯落差。
  • 「有冇登入」同「有冇同意」唔係同一回事:報道提到原告質疑平台未有充分告知亦未取得明確同意,反映產品唔可以將使用服務、接受條款、允許資料共享混為一談。
  • 第三方追蹤技術而家係 AI 產品嘅高風險元件:問題唔一定出自模型本身,而係埋喺首頁、登入流程、分析 SDK、廣告追蹤器入面,呢類基礎設施一旦碰到對話資料,後果比傳統網站嚴重得多。
  • 法院開始嚴格拆分不同授權邊界:文中提到另一宗相關案件已經檢視「使用者授權」同「平台授權」差異,意思係即使用戶叫 AI 幫手做事,都唔代表服務商可以順便攞到所有延伸權限。
  • 平台責任唔會因為有第三方參與而被沖淡:就算資料最後係 Meta 或 Google 存取,爭議焦點仍然會落返喺 Perplexity 點樣設計資料收集與共享機制,顯示整合第三方服務唔等於可以外判責任。
  • Perplexity 已形成「連續爭議」敘事:報道同時提到佢近期已捲入多宗內容、授權、爬取與隱私相關案件,對外界而言,問題唔再似單一失誤,而係公司治理同產品邏輯是否長期偏向踩線。
  • 生成式 AI 行業正在被迫面對資料治理帳本:行業擴張得太快時,大家以前先上線再補規則;而家訴訟開始逼企業回答最基本問題,例如資料去咗邊、分享畀邊個、依據係乜。
  • 品牌風險可能快過法庭結果出現:即使案件未判,單係「AI 對話可能外流畀大型廣告平台」呢個印象,已足以削弱用戶信任,對依賴高頻互動嘅 AI 產品尤其傷。
  • 合規問題會反過來限制產品能力:當 AI 工具直接代用戶執行操作、處理私人資訊時,如果授權模型講唔清,之後好多方便功能都可能因風險過高而無法擴張。

我哋點睇

  • 如果我哋做 AI 產品,最先要盤點唔係模型能力,而係整條資料路徑,特別係首頁、登入後頁面、分析工具同任何第三方 SDK,有冇機會接觸到 prompt、回覆、身份資訊。
  • 對內部架構嚟講,要假設「AI 對話內容 = 高敏感資料」,唔應默認可以攞去做廣告、追蹤或跨服務分析;技術上最好從收集層已經隔離,而唔係靠事後政策補救。
  • 對 OpenClaw 呢類控制系統,呢單新聞再次證明我哋將任務真相放喺本地控制 DB、唔將外部對話渠道當 source of truth 係正確方向;可見效果係就算外部整合出現資料或權限爭議,核心任務狀態同審核鏈都仲係可追蹤、可驗證。

來源