Paramita Loom Paramita Loom
EN
← 指南

如何辨識和應對 AI 深偽內容

教你辨識 AI 生成嘅假圖片、假影片、假語音,同埋點樣保護自己。

關注假資訊同身份安全嘅一般用家入門
  • ai
  • deepfake
  • media-literacy
  • verification

如何辨識和應對 AI 深偽內容

先看結論

AI 深偽技術已經可以生成幾可亂真嘅假圖片、影片同語音。你要記住三個原則:(1) 唔好只因為「睇到」就信、(2) 用多個來源交叉驗證、(3) 留意技術瑕疵(手指、耳環、背景扭曲)。

適合誰

如果你有可能接觸到深偽內容(即係任何上網嘅人),或者擔心自己嘅肖像被冒用,呢篇就啱你。

開始前準備

唔需要特別準備。你只需要保持懷疑嘅態度同基本嘅媒體素養。

步驟

步驟 1:學識辨認常見嘅深偽瑕疵。 AI 生成嘅圖片經常喺細節出錯:

  • 手指數量唔對、形狀奇怪
  • 文字扭曲或者睇唔清
  • 背景物件邊緣模糊或者不連貫
  • 耳環、眼鏡等配飾左右唔對稱 做完後你應該對常見瑕疵有基本認知。

步驟 2:用反向圖片搜尋驗證。 右鍵點擊圖片 → 用 Google 搜尋圖片,或者用 TinEye。 如果搵唔到原始來源,可能係 AI 生成嘅。 做完後你應該知道張圖片有冇其他來源。

步驟 3:交叉驗證資訊。 如果一段影片或語音聲稱某個公眾人物講左某啲嘢,去睇佢嘅官方帳號有冇發布過。 做完後你應該可以確認資訊嘅真偽。

步驟 4:保護你自己嘅肖像。 減少喺社交媒體公開高清正面相片同語音。呢啲都係 AI 訓練嘅素材。 做完後你被深偽嘅風險會降低。

預期結果

你可以更批判咁對待網上嘅圖片、影片同語音內容,唔會輕易被深偽內容誤導。

常見錯誤

E1 對應步驟 1:以為技術好嘅深偽就冇瑕疵。修正方法:即使冇明顯瑕疵,都要用步驟 2、3 做驗證。

E2 對應步驟 2:只用一個來源驗證。修正方法:用多個獨立來源交叉驗證。

E3 對應步驟 3:相信「朋友轉發」等於已驗證。修正方法:追溯到原始來源。

E4 對應步驟 4:覺得「我唔係名人唔會被深偽」。修正方法:普通人都可以被用嚟做詐騙,尤其係語音克隆。

下一步

關注 Content Authenticity Initiative (CAI) 同 C2PA 標準——呢啲技術可以幫內容創作者證明佢哋嘅作品係真嘅。