如何辨識和應對 AI 深偽內容
先看結論
AI 深偽技術已經可以生成幾可亂真嘅假圖片、影片同語音。你要記住三個原則:(1) 唔好只因為「睇到」就信、(2) 用多個來源交叉驗證、(3) 留意技術瑕疵(手指、耳環、背景扭曲)。
適合誰
如果你有可能接觸到深偽內容(即係任何上網嘅人),或者擔心自己嘅肖像被冒用,呢篇就啱你。
開始前準備
唔需要特別準備。你只需要保持懷疑嘅態度同基本嘅媒體素養。
步驟
步驟 1:學識辨認常見嘅深偽瑕疵。 AI 生成嘅圖片經常喺細節出錯:
- 手指數量唔對、形狀奇怪
- 文字扭曲或者睇唔清
- 背景物件邊緣模糊或者不連貫
- 耳環、眼鏡等配飾左右唔對稱 做完後你應該對常見瑕疵有基本認知。
步驟 2:用反向圖片搜尋驗證。 右鍵點擊圖片 → 用 Google 搜尋圖片,或者用 TinEye。 如果搵唔到原始來源,可能係 AI 生成嘅。 做完後你應該知道張圖片有冇其他來源。
步驟 3:交叉驗證資訊。 如果一段影片或語音聲稱某個公眾人物講左某啲嘢,去睇佢嘅官方帳號有冇發布過。 做完後你應該可以確認資訊嘅真偽。
步驟 4:保護你自己嘅肖像。 減少喺社交媒體公開高清正面相片同語音。呢啲都係 AI 訓練嘅素材。 做完後你被深偽嘅風險會降低。
預期結果
你可以更批判咁對待網上嘅圖片、影片同語音內容,唔會輕易被深偽內容誤導。
常見錯誤
E1 對應步驟 1:以為技術好嘅深偽就冇瑕疵。修正方法:即使冇明顯瑕疵,都要用步驟 2、3 做驗證。
E2 對應步驟 2:只用一個來源驗證。修正方法:用多個獨立來源交叉驗證。
E3 對應步驟 3:相信「朋友轉發」等於已驗證。修正方法:追溯到原始來源。
E4 對應步驟 4:覺得「我唔係名人唔會被深偽」。修正方法:普通人都可以被用嚟做詐騙,尤其係語音克隆。
下一步
關注 Content Authenticity Initiative (CAI) 同 C2PA 標準——呢啲技術可以幫內容創作者證明佢哋嘅作品係真嘅。