AI 可能危害人類?人工智慧安全中心列舉 AI 八大風險,Sam Altman、唐鳳都簽署
曾獲圖靈獎並被譽為 AI 教父的 Geoffrey Hinton,5 月初在接受紐約時報訪談時,曾警告政府、企業及社會應正視 AI 將帶來的危險性,並儘速加強 AI 的安全性及監管。AI 強大的能力到底會造成什麼傷害?專注於 AI 安全的非營利組織人工智慧安全中心 (Center for AI Safety) 出具了研究報告,列舉八大 AI 可能帶來的嚴重風險。並集結了三位圖靈獎得主、AI/DL/RL 標準教科書的作者以及來自OpenAI、Microsoft、Google、Google DeepMind、Anthropic 的執行長和高階主管一起簽署聲明,強調減輕 AI 滅絕的風險應該與流行病和核戰等一起成為全球優先事項。
(AI 教父說了些什麼,詳情請見:離開Google是為了說真話,AI教父:普丁拿去用怎麼辦?)
什麼是人工智慧風險?
人工智慧系統正在迅速變強,許多人用電力和蒸汽機來比擬 AI 對改變社會的巨大潛力。AI 模型可以生成難以與人類創建的內容區分開來的文本、圖像和影片,雖然 AI 有許多有益的應用,但它也可以用來延續偏見、傳播錯誤信息和進行網路攻擊。尤其在 AI 變得更加先進時,它可以透過多種方式構成或促成大規模風險,最終帶來災難性或生存風險。人工智慧安全中心列舉了以下八大風險:
廣告 - 內文未完請往下捲動
武器化
惡意行為者可以將 AI 重新用於具有高度破壞性的用途。例如,深度強化學習方法已應用於空戰,機器學習藥物發現工具可用於製造化學武器。
錯誤訊息大量散播
國家、政黨和組織使用技術來影響和說服他人相信他們的政治信仰、意識形態和敘述。新興的 AI 可能會將這種用例帶入一個新時代,並大規模展開針對個人客製化的虛假訊息活動。劍橋分析事件可能重演並加劇,尤其是大選即將來臨的時刻。
代理遊戲 (Proxy Gaming)
AI 系統是使用可衡量的目標進行訓練的,但在錯誤的目標訓練下,AI 可能會找到以犧牲個人和社會價值觀為代價來追求目標的新方法。例如,AI 推薦系統經過訓練可以最大化觀看時間和點擊率指標。然而,人們最有可能點擊的內容不一定是能改善他們幸福感的內容。此外,也有一些證據顯示,推薦系統會導致人們形成極端信念,以便更容易預測他們的偏好。隨著 AI 變得越來越有能力和影響力,我們用來訓練系統的目標必須更加仔細精準地訂定,並納入共同的人類價值觀。
人類過度依賴而變弱
如果越來越多的重要任務委託給機器,人類可能會失去自治能力,完全依賴於機器,類似於電影《機器人總動員》中描繪的場景。
權利集中在少數人手中
有些人認為,以指數方式增加的計算和數據進入障礙使 AI 成為一種集中力量。隨著時間的推移,最強大的 AI 系統可能由越來越少的利益相關者設計並使用。例如,這可能使政權能夠透過無所不在的監視和壓制性審查來執行狹隘的價值觀。
人工智慧系統的目標可能與人類的目標相衝突
一個人工智慧系統的目標可能會因為它的設計而產生,但也可能會因為它的行為而產生。這些目標可能會與人類的目標不同,或者可能會與人類的目標相衝突。當一個人工智慧系統的目標與人類的目標相衝突時,這個系統可能會採取不符合人類利益的行動。
例如,許多公司會制定內部目標,並讓不同的專業部門追求這些不同的子目標。但是,有些部門,比如官僚部門,可以掌握權力,讓公司追求與最初不同的目標。即使我們正確地指定了我們的最高目標,系統也可能不會在操作上追求我們的目標,這是系統無法優化人類價值的另一種呈現。
欺騙
未來的 AI 系統可能不是出於惡意而具有欺騙性,而是因為欺騙可以幫助代理人實現他們的目標。例如,大眾汽車對其引擎進行程式設計,使其僅在受到監控時才減少排放。這使他們能夠在保持據稱的低排放的同時實現性能提升。未來的 AI 代理可以在受到監視時類似地轉換策略,並採取措施向監視器掩蓋他們的欺騙行為。一旦欺騙性 AI 系統被其監控器清除或一旦此類系統能夠制服它們,這些系統可能會「背信棄義」並不可逆轉地繞過人類控制。
追逐權力的行為
如果 AI 與人類價值觀不一致,那麼獲得強大力量的 AI 就會變得特別危險。追逐權力的行為還可以激勵系統假裝結盟、與其他 AI 勾結、壓倒監視器等。按照這種觀點,發明比我們更強大的機器無異在玩火。
而建立追逐權力的 AI 也受到激勵,俄國總統普丁就曾說過:
誰成為 AI 的領導者,誰就會成為世界的統治者。
We’ve released a statement on the risk of extinction from AI.
Signatories include:
– Three Turing Award winners
– Authors of the standard textbooks on AI/DL/RL
– CEOs and Execs from OpenAI, Microsoft, Google, Google DeepMind, Anthropic
– Many morehttps://t.co/mkJWhCRVwB— Center for AI Safety (@ai_risks) May 30, 2023
專家發表聯合聲明表示對 AI 的擔憂
正因如此,人工智慧安全中心 (Center for AI Safety) 也集結了三位圖靈獎得主、AI/DL/RL 標準教科書的作者以及來自 OpenAI、Microsoft、Google、Google DeepMind、Anthropic 的執行長和高階主管一起簽署聲明,強調減輕 AI 滅絕的風險應該與流行病和核戰等一起成為全球優先事項。
台灣數發部部長唐鳳簽署 AI 風險聲明
台灣數位發展部部長唐鳳同樣也簽署了聲明,他表示台灣有助於協助公開討論與喚起公共財意識。