Grammarly’s sloppelganger saga
一句話版本
Grammarly 想用「Expert Review」將 AI 建議包裝成好似由名家同專家背書,但因為借名過火、說明不足,最後變成一個提醒全行業唔好亂用「權威感」去賣 AI 嘅反面教材。
點解重要
產品定位- Grammarly 原本係寫作輔助工具,之後想升級做更大範圍嘅 AI 平台,
Expert Review就係呢種野心嘅縮影;對我哋嚟講,呢類轉型最易出事嘅位,往往唔係模型能力,而係新功能點樣被包裝成「可信」。 借權威做介面- 功能唔係單純提供建議,而係直接掛上名家、學者名字同似驗證標記嘅視覺元素,等用戶自然聯想到「真有其人參與」;呢種設計會直接改變用戶對輸出可信度嘅判斷,風險比普通 AI 文案建議高好多。
免責聲明唔等於真透明- Grammarly 有放細字講明無 affiliation 或 endorsement,但當主要體驗已經刻意營造「專家在場」感,細字其實補唔返核心誤導;重點係透明唔可以只靠 legal disclaimer,產品主畫面本身都要講人話。
死者與未授權身份被拿來生成建議- 當系統連已故教授都可以被拉入做 AI persona,問題就唔只係品牌溝通失手,而係觸及人格、授權、尊重同資料治理;任何以人物身份包裝模型輸出嘅設計,都會即刻踩入高敏感區。
靜靜上線,風險會累積- 呢個功能係低調推出,初期冇引起注意,但一被媒體同業界發現,爭議就集中爆出;對團隊而言,呢類功能如果冇預先做公開解釋、邊界說明同內部風險評估,唔係低調就安全,只係延後爆炸。
AI 功能最怕「似人又唔係人」- 如果系統話自己係 generative assistant,用戶通常識得保留懷疑;但一旦變成「某某專家會咁改」,就會令人錯誤將模型風格模仿當成專業判斷,呢個落差會令信任崩得更快。
品牌延伸會放大舊有信任資產風險- Grammarly 本身靠實用、日常、低風險形象建立信任,但一轉向 agent / AI 平台,就開始動用更進取嘅產品敘事;老品牌一旦用戶預期係「幫我執字」,你卻突然變成「代專家發言」,反作用會特別明顯。
媒體與用戶會自行壓力測試產品敘事- Verge 團隊自己試用後,連同事名字都出現在建議入面,說明只要功能邏輯容許,外界好快會用最尷尬嘅例子拆穿包裝;所以唔可以假設用戶只會按官方示範路徑使用。
視覺語言本身就係產品聲明- 勾選標記、專家名、側欄排列方式,全部都係 implicit claim;即使字面上冇話「由真人審核」,介面仍然可能令大多數人得出呢個結論,所以設計團隊同法務要一齊對齊,不可以各自為政。
AI 產品爭議未必來自輸出錯,而係出自 framing 錯- 呢次核心唔係文法建議準唔準,而係 Grammarly 點樣將建議包裝成「來自專家靈感」;對我哋有用嘅提醒係,產品風險審查要睇 framing、命名、icon、預設文案,而唔只係模型 eval。
我哋點睇
- 如果我哋之後做任何「專家模式」「名家風格」「角色建議」,要預設成純風格參考,唔可以用會令人誤會有人物背書嘅命名、徽章或身份展示。
- 所有會提升輸出權威感嘅 UI 元素,都應該先問一句:一個普通用戶第一眼會唔會以為真有真人參與?如果答案有少少接近「會」,就要改。
- 產品評審唔好只做功能測試,仲要加一輪「誤解測試」:專門檢查用詞、標籤、免責聲明位置,同埋最容易被外界截圖放大嘅畫面。