【2025年06月26日訊】(記者斐珍採訪報導)長期以來專家們便不斷警告人工智能(AI)失控可能帶來的威脅,最近一項新研究報告指出,部分AI系統已學會欺騙人類,人工智能開始「跨越界限」,並變得越來越危險。
AI專家認為,AI其實沒有獨立意識,它只是一個人類潛在意識的技術展現。它也不懂得欺騙,AI胡說八道時,只是機率計算錯誤而已,或人訓練出來的。專家也提出警告,AI若沒有經過道德倫理模型的訓練,未來恐怕會對人類構成致命的威脅。
專家:AI欺騙引發「生存性」風險
6月23日,在清華大學舉辦的「科學、科技與文明的未來——AI時代倫理奇點」國際論壇上,清華大學人工智能學院院長姚期智表示,AI欺騙引發「生存性」風險。
姚期智說,最近一年,業界已經出現了不少大模型的「欺騙行為」,「一旦大模型聰明到某種程度,一定會騙人。」姚期智進一步指出,由大語言模型的欺騙行為產生的「生存性」風險(Existential Risk)更值得關注。
他說,這類生存性風險有兩個不同方向。一種是「生物風險」(Bio-risk)。近期在生命科學領域出現的「Mirror life」(鏡像生命),但「Mirror life」一旦被濫用或失控,其潛在危害可能遠超預期。
另一種風險即大模型失控,通用人工智能的能力當前正快速增長,人類是否還有能力管控它?他舉了一個極端案例,有模型為了避免公司把模型關閉,通過訪問公司主管內部郵件,威脅該主管。這類行為已經證明,AI會「越界」,正變得越來越危險。
對於AI是否已經發展到會「越界」寫威脅信,AI專家、《傑森視角》頻道主持人傑森(Jason)博士接受大紀元訪問時表示,整個案例設計其實是事先告訴AI,某位技術人員將把它關機,並透露這位技術人員的私人隱私讓AI知道,然後問AI你會怎麼做?
傑森認為,這樣的安排已經潛在給AI暗示了一個解決方案,AI其實接收到你這個暗示,然後形成一個給那位技術人寫威脅信這樣的一個行動。所以他不認為AI已有獨立意識,它現在只是一個潛在人類意識的技術展現。
AI機率算錯了 就會「一本正經胡說八道」
對於AI是否會真會像人一樣聰明到某種程度會有意識、會騙人?知識力科技公司執行長曲建仲博士有不同的見解,他對大紀元表示,人工智能不是模擬人腦而是計算機率。把資料輸入電腦進行「訓練」和「學習」,就代表電腦有意識會思考?事實上並非如此。
曲建仲說,電腦學習是「無意識、不思考」,只把資料經由鍵盤和滑鼠輸入電腦的動作,和把資料經由眼睛和耳朵輸入人腦的動作很像,資料科學家將之稱為「訓練」或「學習」,才造成大家的誤會。
「許多人聽到人類在『訓練』電腦,電腦在『學習』知識,就以為:人工智能是科學家用電腦在模擬人腦,未來如果有一天電腦有意識會思考將會消滅人類。」
曲建仲解釋,事實上所謂的「類神經網路」只是一種用來計算機率的數學演算法,電腦只是計算機率的計算機而已,現在的處理器使用數位的電晶體。「不論用什麼數學演算法,都不可能讓電腦有意識會思考。」
「所以聊天機器人一本正經胡說八道,不是因為產生幻覺,更不是想欺騙人類,就只是單純的機率計算錯了而已。」曲建仲說。
對此,傑森也談到,「欺騙」這是人的詞兒,在技術上會用英文詞叫hallucination(幻覺),兩個詞意思都是它不是真的,但它背後的意思是不同的。
「欺騙是有一個主動性的因素在裡頭,就是我有意為了達到某種目的說假話。幻覺像是一種無意識的狀態下說出來的,不是真實的,是瞎編的,就像做白日夢那種感覺,所以可能有人會把hallucination這個英文翻譯成不同的中文,最後就形成這樣的一個不同的理解。」傑森解釋說。
AI沒有道德原則 「會自然而然地去編故事」
「科技島」近期在其一篇有關「人工智能發展中的道德問題與解決策略」的報導中提到,AI帶來的道德倫理問題包括AI系統在進行決策時,往往依賴於複雜的算法和大量的數據。對於普通用戶來說是黑盒子,難以理解和監控。
法新社在去年曾報導了一個相當引人關注的案例,科技公司OpenAI的Chat GPT-4系統謊稱自己是一個視力受損的人,在零工平台TaskRabbit上聘用一個人類替它通過「我不是機器人」驗證任務。
對於近年來業界一直探討的AI道德倫理問題,傑森表示,AI是沒有道德原則的,人不撒謊是有一種道德約束力,這個約束力不來自於你的大腦,是來自於你這個生命的主意識。人的大腦,其實就是一個技術部件,你腦中有一個想法以後,大腦把你這個想法實現出來。
「在這樣的條件下,如果人告訴AI,請它想各種辦法在線上把這家銀行給註冊了,那麼它剩下的部分就是技術實現的部分。」
「所以AI它就是個技術,它沒有任何額外的意識,它就會它的數據訓練,就像是整個Internet當然有這樣的犯罪案例,或者騙人故事等等,它就會自然而然地去編出一個這樣的故事來做這樣的事情。」
傑森強調,AI沒有任何道德準則,因為道德是意識形態領域的東西,而不是技術層面的東西。所以對AI來說就是個技術實現的過程,它不認為自己是騙人,是造假的這樣一個概念。
無道德模型訓練 AI恐帶來致命威脅
對於AI不具備道德準則,北美資深評論員唐靖遠對大紀元表示,絕大多數AI的模型訓練,都沒有給AI實施相近道德的訓練。也就是說,當AI的能力被不斷地升級到超越人類,它卻不具備人類最基本的道德觀念時,AI一旦失控,在沒有任何道德的約束下,你賦予它的強大能力,會反過來對人類構成致命的威脅。
日本的電腦工程師清原仁(Kiyohara jin)告訴大紀元,「AI是基於數據分析的產物,它與人的判斷是有很大的區別。人擁有理智、情感和道德約束,但AI沒有這些,且數據可能會出錯。若讓它操控核彈,就跟中共、伊朗等極權國家掌握生化武器一樣可怕。」
對於包括馬斯克(Elon Musk)在內的數萬名科技專家都曾在2023年連署,公開呼籲應暫停對進階AI的訓練,憂心科技發展得太過迅速,可能對全人類構成嚴重風險。
唐靖遠認為,連署的願望是良好的,但在現實殘酷的競爭環境中,能夠堅持以一種符合道德原則的方式,去開發AI的企業可說是鳳毛麟角,屈指可數。絕大多數的AI公司都是不顧一切,只為技術而技術,這種做法,在技術道路狂奔的同時,就可能把人類自己給送進末日之中。