【2023年10月30日訊】(大紀元專題部記者吳瑞昌報導)近期國際衝突不斷,中共、伊朗等極權國家或激進組織濫用AI,去發動訊息戰煽動民眾仇恨,或藉此發展出更強大的武器。對此,多國政府開始重視對AI的限制,希望透過新法規和共同合作,防止世界出現最糟糕的情況。
英國首相蘇納克(Rishi Sunak)10月26日就人工智能(AI)問題在倫敦發表演講。他先是肯定AI在醫療保健等領域上擁有極高的潛力,不僅能診斷失明,還可以預測心臟病、中風或帕金森氏症等。
不過,蘇納克就AI的問題對民眾發出嚴重警告。他說,「人類可能會完全失去對AI的掌控,那將會帶來極其嚴重的後果。因為AI就像每一波科技浪潮一樣,會帶來新的知識,但也會帶來新的危機和恐懼。」
他還提到,「恐怖分子和犯罪組織可能會利用AI,製造出殺傷力強大的生化武器、網絡攻擊、傳播虛假資訊、詐欺甚至兒童性虐待。」
不過,蘇納克認為,只要政府做好監管和控制,AI就不會導致人們出現危險。他說,「目前政府已經投資1億英鎊,組建新的監管AI工作小組,用於保證民眾的安全。」
蘇納克強調,「AI沒有國界之分,需要更多國家、高科技公司代表和民間社會參與英國舉行的『全球首屆AI安全高峰會』,共同商討應對AI帶來的風險,確保AI系統在發布之前是安全的。」
另外,英國政府在10月25日發布《AI能力與風險》報告提到未來的18個月內(2025年)黑客、詐騙者和恐怖分子可以利用AI以更便宜、更容易地方式攻擊無辜受害者。
人類越來越依賴AI的決策
人類除了擔心別有用心的人利用AI做壞事,還擔心依賴AI的問題。許多人把諸多重要的決策和控制權交給AI來處理的問題,例如:網球比賽中的判定,法院裁判權、或者網購和倉儲系統、重要的國家決策和科學研究等。
這種依賴可以從英國首相的演講聽到。當時蘇納克提到,英國政府投資近25億英鎊購買量子電腦,用於AI研究和政府業務上。原因是AI可以為人類生活上的問題,提供一百萬種不同的解決方法,而這台量子電腦比世界上最快的超級電腦要快上數億倍。
許多人,包括科學家都擔心,若人們繼續毫無限制地發展和依賴AI,恐產生人類難以收拾的場面,而數據公司豐富(Profusion)的執行長娜塔莉·克蘭普(Natalie Cramp)也表達了對AI的擔憂。
她認為AI並非萬無一失,未來極有可能出現《魔鬼終結者》等電影中描繪的人類末日情況,把人類視為消除的對象。目前,AI短期的危險在軍事應用上,因為AI可以遠端控制無人機或機器人,但它們可能做出傷害人類的行動。
實際上,克蘭普講的早已成為現實,如美國研發的F-16無人戰鬥機、以色列士兵裝備的「智能射手」、俄烏戰場上使用的AI無人機。另外,美國空軍6月在一次AI模擬測試中,發現一架負責摧毀敵方設施的AI無人機,不僅拒絕操作員中止任務的命令,還透過「殺害」操作員去完成任務。
AI能力已超乎想像
許多高科技公司希望結合「雲計算」、「大數據庫」和更強運算力「GPU芯片」打造更強大的AI,但人們擔心這可能會讓AI產生自我「意識」或在發生嚴重故障和問題時,會造成無法挽回的後果。
美國著名的西北大學(Northwestern University)的一個研究團隊10月初在《美國國家科學院院刊》中發表一篇關於AI能夠高效率地自動設計機器人的論文。這款AI擁有近乎讓人們感到恐懼的「設計能力」,只要在輕型個人電腦上運行,且無需使用龐大的數據庫或超級電腦。
該團隊表示,只需要使用者對它下達類似「設計一個可以在平坦表面上行走的機器人」這種簡單指令,AI就能在短短幾分鐘內設計出符合需求的機器人。這種能力是人類和過去的AI無法輕易辦到,因為他們需要花費大量的時間進行訓練和研發才能夠完成。
對此,日本高科技公司社長德森翔(Sho Tokumori)10月28告訴大紀元,「AI看似能夠突破人類固有的觀念和限制,帶來更多的可能性,但也會出現人類無法預料的情況,最終脫離人類的掌控並走向未知的方向,這是很危險的。」
麻省理工學院物理學家兼AI專家馬克斯·泰格馬克(Max Tegmark)曾多次表示,人類能讓渡渡鳥等「低等」物種滅種,若出現一個比人類更強大、更聰明的人工智慧「物種」,那時將會有超過50%的人類面臨相同的命運。
蘇納克演講中提到的AI創造生化武器的技術很容易被恐怖分子操縱來尋找有毒的神經毒劑。此前,英國藥理學家肖恩·埃金斯(Sean Ekins)在《未知:殺手機器人》(unknown:Killer Robots)紀錄片中講述,AI如何可在一夜之間創造(計算)出四萬多個全新且極其致命的化學武器分子。
各國政府開始重視AI帶來的問題
不僅是英國首相對AI感到擔憂,聯合國祕書長安東尼歐·奧古特雷斯(António Guterres)和日本首相岸田文雄也在10月份表達出相同的擔憂。他們希望創立新的AI規則和應對小組,去應對AI在未來帶來的風險和挑戰。
讓他們緊張的主要原因,是一些別有用心的人濫用生成式AI,在網上發布大量虛假的圖片和消息或進行詐騙等,這可能導致社會出現大面積的混亂。
奧古特雷斯在10月26日的AI發展和風險的新聞發布會上表示,雖然AI能夠帶來進步,但也會被惡意使用,從而削弱民主社會的凝聚力和穩定。他宣布,成立聯合國的AI諮詢機構,用來應對AI快速發展所帶來的風險和好處,該機構已選中30個國家的39人加入,大多來自大科技公司的工程師和教授。
日本首相岸田文雄在10月9日也曾表達過擔憂。他表示,許多證據指出,生成式AI會帶來虛假信息,從而引發社會混亂和威脅社會經濟,因此有呼聲要求政府在「推動」與「監管」之間取得平衡。
為此,他公布了G7為開發者制定了生成式AI的標準政策。該政策要求開發者必須公開系統功能和風險訊息,以確保人工智慧的透明度。未來會透過一種識別網路上資訊原始發布者的數位技術的「始發者檔案(OP)」完成,同時在10月底制定「AI基礎設施技術發展」的新措施,強化日本的數據處理系統。
這次岸田文雄公布的規定,可以說是回應了日本新聞協會、日本雜誌協會、日本攝影著作權協會、日本書籍出版協會在8月17日共同要求日本政府正視AI、修改法律和限制AI被濫用的可能。
目前,美國正準備立法以更好地控制AI技術。特斯拉的CEO馬斯克(Elon Musk)9月在美國國會山舉行的一次私人聚會上對參議員和記者們表示,AI對整個社會構成了「文明風險」,我們必須採取積極的反應,而不是被動,原因是AI出錯的後果是「嚴重的」。
德森翔表示,「現在正值需要制定有關於AI的國際規範。雖然AI是一種工具,但它的使用取決於人的道德規範,因此在AI尚未脫離人類的掌控之前,規範出AI的開發標準,可能是最佳時機。」
不過,日本的電腦工程師清原仁(Kiyohara Hitoshi)10月28日告訴大紀元,「目前政府部門或組織制定的政策,可能難以解決實質的問題,因為法律很難真正約束到壞人。另外,人們在完善AI的過程,可能需要付出很大的代價,除非叫停AI或人們的道德水準出現提高,才能有效解決根本問題。」
(記者王佳宜、張鐘元對本文有貢獻)