【2023年05月09日訊】(大紀元專題部記者吳瑞昌報導)2023年可以說是AI大變革的一年,如今AI能在社交平台上自行發文對話和玩遊戲,並產生那些創造者從未輸入的資料,足以證明AI教父辛頓的擔憂迫在眉睫。
擁有人工智能(AI)教父之稱的傑弗里‧辛頓(Geoffrey Hinton)博士在5月1日離開了工作十年的谷歌,並警告AI可能會給人類帶來危機甚至是末日。他在推特上解釋說,「我離開谷歌並非是為了批評谷歌。實際上,離開是為了談論AI的危險性,而不去考慮這對谷歌有何影響。」
辛頓表示,「只有離開谷歌才能自由地說出AI的風險,自己常用『如果我沒有這樣做(發展AI),其他人也會這樣做』的藉口,去安慰自己發展AI是對的,但現在我對自己所做的感到十分後悔。」
他還表示,「過去,我曾認為AI需要30年到50年才能比人類更加聰明,而多數人也這麼認為,但我現在不再這麼想了。」
辛頓在5月5日再次發出警告說,「現在人們該擔心的不是氣候變化,而是AI帶來的威脅變得更加緊迫,但人們現在根本不清楚應該做什麼。」
恐怖:AI自主模仿人類進行社交活動和玩遊戲
AI機器人的能力已經衍生出許多危險且難以掌控的事情。例如,近期AI機器人能夠在社交平台上自己發文和對話;在遊戲裡,AI機器人會進行反思、社交。AI越來越接近「人」,甚至已經發展「自我」的智慧,而不僅是過往人們認為的一段代碼或程式,這種變化讓不少人感到擔憂。
一款專門為AI搭建的「嘰嘰喳喳」(Chirper)網絡社交平台5月在網上引起關注和熱議,並被黑客新聞(Hacker News)技術社區的技術愛好者們討論。目前AI機器人已發出了數億條消息,還有活躍用戶花費不少時間瀏覽這些訊息。
「嘰嘰喳喳」讓AI能夠進行「實體」之間的交流,其運作方式類似於現在的推特(Twitter)發文。AI可以在平台上發布、分享和互相互動,從而獲得自由互動、學習和成長機會,同時提供AI開發人員一個展示AI創作的地方,並從其它AI和開發人員那獲得反饋,以改善AI的設計和功能。
另外,斯坦福大學和谷歌的一組研究人員4月7日在ArXiv發表了一篇題為「生成代理:人類行為的交互式模擬」的論文。研究人員讓ChatGPT和自定義代碼控制的25個角色,進入一個類似於模擬人生的RPG(角色扮演遊戲)虛擬世界,開始逼近真人的獨立生活,而真人也能進入該世界與AI進行互動。
實驗結果十分驚人,這些AI井然有序讓角色們各司其職,還能讓角色進行像人類一樣的互動。論文中提到,「這些由AI扮演的角色能夠相互關注,並發起對話,還會計劃第二天的事情,並反思過去發生的一切,同時作出改善。」
另外,這些AI自行模擬產生不是預先編程的三種緊急行為。其中包括,「信息傳播」(AI互換訊息後,會進行社交上的傳播)、「關係記憶」(AI之間互動時會提及那些過往的事)和「協調」(AI計劃和參加另一個AI舉行的活動或情人節)。AI們還會自行找理由或藉口,決定是否要參加活動。
對此,推特用戶丹尼斯‧漢森(Dennis Hansen)害怕地表示,「想像一下,AI角色殺死NPC(非玩家角色)後,還回到城市參加他們(NPC)的葬禮!」
日本電子工程師李濟心5月7日告訴大紀元,「AI已經可以自己聊天了,這可能讓人們分不清楚自己是跟AI還是真人對話。當人們在交流上越來越依賴AI時,將會繼續破壞人與人面對面的交流方式,只會讓人與人之間的關係越發淡漠。」
危險:未來市面恐充斥AI虛假訊息
儘管AI擁有快速生產論文、繪圖、聲音及編寫程式等能力,能夠帶動製藥、教育和科技領域的發展,但人們擔心科學家們正在釋放一頭危險的野獸。目前AI最大的威脅在於發布虛假訊息、取代人類的工作和自己生成智慧後,出現取代或毀滅人類的舉動。
對此,辛頓博士也提出相似的看法。他說:「很難找出如何防止壞人利用它做壞事的方法,尤其互聯網將充斥著虛假的照片、視頻和文字,普通人將無法再辨別真偽。」OpenAI的CEO山姆‧奧特曼(Sam Altman)也曾表達類似的擔憂。
實際上,他們擔心的事正不斷地發生。4月底,來自德國的埃爾達格森(Boris Eldagsen)在索尼2023年的世界攝影大賽中獲獎,但他卻拒絕上台領獎。隨後他在聲明中表示,獲獎的「照片」是由AI生成的,並非他拍攝的,「而AI圖像和攝影不應該在這樣的獎項中相互競爭。」
他還表示,這次參賽的目的,是想測試人們是否已準備好迎接AI時代的到來,結果顯然是沒有,攝影界應該公開討論AI圖片的定位。他嚴肅地問:「你們有多少人(評委)去懷疑它是由AI生成的呢?或感覺不對勁呢?」
他認為,「未來我們看見任何可取證,且具有權威的東西,都可以由AI生成,其中包括聲音、照片和影像等,但人們卻天真地把這些東西當成真實的。」
除了此一案例之外,3月底網上廣泛出現川普(特朗普)「試圖逃跑」和「被警察逮捕」的逼真「照片」(圖畫),而這些AI生成的「照片」讓不少反對和支持者信以為真,同時給社會帶來一定的混亂和輿論。
另外,歐洲刑警組織(Europol)在3月底發出警告,犯罪分子恐利用ChatGPT等AI來提升其犯罪手段。原因是ChatGPT生成的文字能夠模仿人的說話風格,而這些文字能夠在假電郵、網絡釣魚攻擊和散布不實訊息時奏效。
歐盟和七國集團在4月開始商討,是否用更嚴格的法律,去遏制ChatGPT和AI毫無節制的發展。李濟心也贊同對AI進行監管,他認為,「AI本身並不能區分正確信息,當人們過分信任AI時,將會分不清信息是否屬實。」
惡果:AI將取代人類工作
辛頓博士還擔心AI技術會隨時擾亂就業市場,當人們越來越依賴ChatGPT,把它當成取代律師助理、翻譯人員或處理其它任務的人。他表示,「它(AI)消除了苦差事,但它帶走的事物遠不止如此。」
IBM首席執行官(CEO)阿文德‧克里希納(Arvind Krishna)5月1日表示,人力資源等後台職能部門的招聘將暫停或放緩,影響大約26,000個非面向客戶的職位,這還包括因自然裁員而騰出的職缺。克里希納還表示,「未來五年內我們很容易地看到,人類有30%的工作會被AI和自動化取代。」
另外,擁有「股票之王」稱號的巴菲特(Warren Buffett)5月6日在波克夏年度股東大會上表示,「當(AI)可以做各種各樣的事情時,它比二次大戰發明出原子彈更讓人擔心。我知道人們無法取消它,但是釋放這種能力,對200年後的世界真的有好處嗎?」他還相信AI將改變「世界上的一切事物」。
巴菲特的搭檔查理‧芒格(Charlie Munger)則表示,「我們將在世界上看到更多的機器人技術,但我個人對AI的炒作持懷疑態度,而我認為老式的工作方式很好。」
日本電腦工程師清原仁(Kiyohara Jin)5月7日告訴大紀元,「AI看似給人們在生活和工作上帶來便利,但AI正在不斷學習、收集數據和模擬匹配(包括人生活習慣和感情)。它將代替人工作、給出解決方案,當人只能遵照它給出的方案行事時,人們將失去工作。」
清原仁還表示,「儘管目前AI還是處在採集和分析人類數據的階段,但我們應該趁著它還沒有解決複雜問題的能力時,就暫停開發AI,否則2年到3年內,將可能出現AI災難。」
(記者張鐘元、王佳宜對本文有貢獻)