DeepMind 創辦人警告:超級 AI 或滅絕人類,全球競賽已失控
一句話版本
DeepMind 創辦人 Hassabis 而家公開承認超級 AI 有可能帶來人類滅絕風險,重點唔只係佢講得重,而係連原本最信制度治理嗰批人都開始覺得全球 AI 競賽已經快到制度追唔上。
點解重要
治理失靈:文章最值得注意嘅唔係風險本身,而係 Hassabis 由「靠外部監督」轉向「靠自己坐喺決策位把關」。呢個轉變代表業界頂層都懷疑,單靠委員會、原則文件、公司承諾,未必頂得住市場競賽壓力。商業壓力會直接侵蝕安全節奏:ChatGPT 出現後,Google 內部節奏明顯被競爭拉快,連原本較重視安全嘅團隊都要讓路畀產品速度。對我哋嚟講,意思係只要外部競爭升溫,安全機制如果唔係流程硬約束,就好容易變成口號。非營利包裝唔等於可持續治理:文中提到佢早年希望透過較獨立、近似非營利式安排守住安全底線,但最後都守唔住。呢點提醒我哋,治理設計如果冇實際權力、資源控制同執行機制,名義上點寫都會被現實沖散。風險已經由抽象變成分層管理問題:佢講嘅四類威脅有近有遠,短期係生化安全同網路攻擊,長期係惡意武器化同自主系統失控。呢個框架有用,因為佢將「AI 風險」由空泛恐懼拆成可優先排序嘅安全面向。近期威脅其實更貼近現實營運:生化與資安風險被放喺最前,說明當前最需要防嘅未必係科幻式超智慧叛變,而係 AI 降低高危知識與攻擊能力門檻。呢種風險更容易穿過企業日常流程,亦更難靠事後補救。長期威脅窗口正在收窄:如果 AGI 真係可能喺 2030 前後或者未來 5 到 10 年出現,代表安全準備唔可以再當成長期研究題,而係產品、政策、基建都要即刻前置考慮。個人可信度令警告份量更重:Hassabis 唔係外圍評論員,而係站喺最前線做模型、又有科學成就加持嘅人。當呢類人物都公開講「可能滅絕人類」,市場、政府、實作者更難再用「危言聳聽」輕輕帶過。全球最低標準會變成關鍵戰場:佢呼籲各國先建立最低安全標準,反映現實上未必有條件做到完整全球一致監管,但至少要先守住底線。對產業而言,將來競爭可能唔只係模型能力,仲包括邊個先滿足可被接受嘅安全基準。單一公司已經無法壟斷風險控制:OpenAI 出現後,原本「由少數人慢慢做、秘密做」嗰種想像已經破局。呢個意思係,任何安全方案如果假設玩家數量少、節奏可控,就大機會同現實脫節。技術領導者開始接受較悲觀現實:文章呈現嘅核心情緒係「唔係唔知危險,而係知道危險都停唔低」。呢種心態轉變本身就係訊號,表示未來公共論述會由「應否加速」轉向「點樣喺加速中減災」。
我哋點睇
- 對我哋做系統設計嚟講,最實際嘅啟示係唔好假設「人會永遠自律」。凡係高風險能力,都要靠流程閘門、權限分層、審批同審計紀錄去兜底,而唔係靠操作者自覺。
- 如果之後我哋有任何 AI 自動化能力落地,應該優先問兩條問題:第一,佢可唔可以被濫用去加速攻擊;第二,出錯之後有冇辦法即時停機同追查。答唔到,就未算準備好上線。
- 呢篇文亦提醒我哋,講「安全」唔可以停留喺價值宣言,必須轉成可驗證嘅最低標準,例如邊啲任務要人工覆核、邊啲輸出要封鎖、邊啲事件一定留證據。咁先頂得住之後節奏愈來愈快嘅壓力。