大量加沙「深偽」影像熱傳 專家憂AI被濫用

【2023年11月29日訊】(記者陳霆綜合報導)在以哈衝突中,有一些特別引人注目、沾滿鮮血的棄嬰照片,事實上是人工智能(AI)製作的深偽(Deepfakes)圖像。戰爭開始以來,這些圖片在網上已被瀏覽了數百萬次。

如果仔細觀察,可發現一些蛛絲馬跡:照片裡的手指奇怪地彎曲,或者人物的眼睛閃爍著不自然的光芒。然而,這些圖片所引發的憤怒卻是真實的。

以哈戰爭中的圖片,生動且殘酷地展示了AI作為宣傳工具的潛力,它可創造出栩栩如生的大屠殺圖像,用來欺騙民眾,讓他們相信從未發生過的暴行。

隨著技術不斷進步,且缺乏監管。專家們擔心,未來的衝突、選舉和其它重大事件中,AI可能更頻繁的被濫用。

CREOpoint是一家總部位於舊金山和巴黎的科技公司,該公司創建了一個資料庫,收錄了網上熱傳的加沙地區深偽圖像與影音。

CREOpoint的首席執行官戈登斯坦(Jean-Claude Goldenstein)說:「在好轉之前,情況會變得更糟,非常糟。」

「圖片、視訊和音訊:有了生成式AI,這將是前所未有的升級。」戈登斯坦說。

有時候,來自其他衝突或災難的照片,會被AI重新利用,製作成新照片。有時候,生成式AI可以無中生有,從頭創建一張圖像。例如,在衝突初期,一個嬰兒在轟炸殘骸中哭泣的圖像在網絡上瘋傳,然而那其實是AI偽造的。

AI生成的圖像,還包括一些視頻,顯示所謂的以色列導彈襲擊,或坦克軋過被毀壞的街區,或家人在廢墟中尋找倖存者等。

在許多情況下,這些偽造的視頻似乎是為了喚起人們強烈的情感反應,其中包括嬰兒、兒童的屍體。

非營利組織「反數字仇恨中心」(CCDH)首席執行官艾哈邁德(Imran Ahmed)說,製作這類圖片的宣傳者,善於抓住人們內心深處的衝動和焦慮。

圖片越令人憎惡,用戶就越有可能記住並分享它,從而在不知不覺中進一步傳播虛假信息。

在俄烏戰爭中,也有一段經過篡改的視頻顯示烏克蘭總統澤連斯基(Volodymyr Zelenskyy)命令烏克蘭人投降。這則視頻直到上週還在網上流傳,這說明了即使是很容易被揭穿的錯誤信息,也能長期傳播。

這讓許多AI專家發出警告,明年有幾個國家要舉行大選,包括美國、印度、巴基斯坦、烏克蘭、台灣、印度尼西亞和墨西哥等。AI和社交媒體可能被用來散布謊言。

在最近一次關於深偽技術危險的聽證會上,民主黨聯邦眾議員康諾利(Gerry Connolly)表示,美國政府應投資開發能反制其它AI的AI工具。

全球各地都有初創公司在開發新程序,以識別深偽作品。

多爾曼(David Doermann)是一名電腦科學家,曾領導美國國防部高級研究計劃局(DARPA)應對AI操縱圖像對國家安全造成的威脅。

多爾曼現在是布法羅大學(University at Buffalo)的教授,他說,要有效應對AI虛假信息帶來的政治和社會挑戰,需要更好的技術和更完善的法規、自願性行業標準,以及對數字素養計劃的廣泛投資,幫助互聯網用戶找出分辨真假的方法。

多爾曼說:「檢測和試圖清除這些東西不再是解決辦法。我們需要一個更大的解決方案。」

(本文參考了美聯社的報導)

「金山紀元網」立足華人社區,服務華人朋友,堅守傳統媒體的良知與價值觀,向民眾傳遞真實的資訊。請關注我們的社媒主頁,及時獲取最新咨詢!

看完這篇文章您覺得:

已經有 0 次投票 抢沙发
相關文章
文章評論區

发表评论