【2024年07月09日訊】有關機器或者人工智能機器給人類帶來災難的擔心已經持續了兩三百年。我們看到大部分有關世界末日的電影其實都和人工智能的電腦系統有或多或少的關係。大部分人不明白AI的原理,對未知的未來感到擔憂,這當然情有可原。但最近越來越多的高科技行業人士,甚至是AI的專家也開始對這個問題表達他們的擔心。那麼,這些憂慮到底是基於什麼樣的原因?是有所根據,還是杞人憂天、危言聳聽呢?AI會導致人類走向末日嗎?
掌握AI將統治全球 AI發展進入危險期
獨立電視製片人李軍在新唐人《菁英論壇》節目中表示,現在有一大批高科技專家學者、政客,對於AI的發展憂心忡忡。2023年的5月份,被稱為ChatGPT之父的Altman和超過350名人工智能方面的專家,聯合簽署了一份公開信。他們認為人工智能有可能導致人類滅絕的風險,所以應當將其視為與大流行病和核武戰爭同等的社會風險。Altman說過一句話,無論誰成為AI的領頭羊,他都將統治全世界。這句話讓很多人不寒而慄,因為如果這個技術落到了沒有道德的人或組織身上,那對人類將是滅頂之災。Altman還建議建立類似國際原子能機構組織,安全監管AI的發展,政府也要加強監管。伊隆‧馬斯克則認為AI技術有10%到20%的可能性會消滅人類。川普(特朗普)曾問過馬斯克,說現在有可能用AI技術來模仿美國總統,發動核戰爭觸發世界核大戰嗎?馬斯克的回答是肯定的,所以川普很擔心,如果AI失控的話,會給人類帶來巨大的災難。
李軍說,從長遠看,隨著AI從弱人工智能一步步發展到人工通用智能,甚至到超人工智能,人類的各項工作甚至是家庭角色包括妻子、丈夫都有可能被取代,這對整個社會的發展應該是顛覆性的了,更有可能是失控的。那時候或許它已經比人類聰明很多倍了,成了人類的主人了。人類有辦法避免這種可能性嗎?
人工智能專家傑森在《菁英論壇》中表示,馬斯克提到的AI有10%、20%的可能未來真的是會毀滅人類,那我想它可能是有一定的延展性。比如說把現有的技術再延展五六代、三四代,那麼AI有可能會出現自我意識。
現在人工智能有一個比較危險的方向,叫做Agent,就是讓一系列人工智能程序中的每個程序扮演不同的角色,再用它們的交互的過程來實現某種工作。比如它的構造用十個AI的Agent,我叫它代理人或者智能體,每個都扮演不同的角色,讓他們在交互過程實現一個軟件開發的全過程。這個過程在現有人工智能模型下還不那麼可怕,但是如果將來人工智能本身智力越來越高的時候,那麼在這個互相幾個Agent交互過程中,人類的可控性就被削弱很多了,你不知道它們在交互過程中會討論出一個什麼樣的狀態來。為了達到某個目標,它們如果沒有一個明確的法律準繩或者說道德的準繩,它們會討論出什麼過程?如果討論出的這個東西是很糟糕的,那麼這個就讓人很擔心,我對這個方向是擔心的。
AI發展遭遇瓶頸期 人類緩口氣
傑森在《菁英論壇》表示,未來AI會不會到最後控制了人類?2023年我覺得可能,今年我稍微樂觀了一點點。大概在2022年的11月,當時ChatGPT出來的時候,我第一次被震驚到了,當時那個人工智能模型是OpenAI的GPT3.5,已經讓我非常吃驚了。等到大概2023年3月的時候,OpenAI就推出來了GPT-4,那個就徹底讓我驚訝了。如果把GPT-3理解成一個幼兒園,小學一二年級小孩兒智商的話,那麼GPT-4其實就已經達到了高中生甚至有部分是大學生的智商,因為它通過法律考試的時候,成績超過了前10%,在這麼短的時間內發展如此之快,這讓我非常驚訝。當時我在節目中說,人類社會出現奇異點了,就是人類從此走上了一條不歸路。
當然在今年,我稍微放心了一點。在過去的一年裡,GPT-4幾乎一直處於整個現在人工智能的山尖這個位置上,不管是Google出的Gemini(聊天機械人),還是後來Claude出的Claude3模型,雖然這模型的能力稍微明顯地超出了GPT-4,但是它的提高是非常小的。從這個過程我就看到,其實很可能人類人工智能如果沒有新的技術突破的話,按現有的技術,未來的發展可能會緩下來。原來大家預計今年、明年就會出現真正的通用性人工智能,現在看來這樣的設想可能稍微有點突進了。就我看的話,是因為有技術上的原因使得目前GPT-4出現了某種意義上的瓶頸,再突破很可能是一種量化的突破,而不是GPT-4和GPT-3.5之間質變的突破,就是人類事實上是走向了一個數據瓶頸這樣的概念。
傑森表示,限制技術發展的原因主要是數據方向。有人說某種意義上講,GPT-4已經拿下了互聯網70%的信息,換句話說,在人類數據增長的過程中,它能拿到的數據已經基本上都拿下來了,要是說再擴展,再乘以十倍的數據量,那很可能就不是人類現有能生成的自然數據量了,可能就得用人工智能自動生成創造。那麼這個時候就有點內卷了,因為AI的智力就來自於現有的知識,現有的知識卷出來的人工智能的輸出,然後以這個輸出再去作為數據,它就跟原來那個實實在在來自於人類原始的數據的質量,各方面就不一樣了,多樣性、創造力各方面都不一樣了。所以,數據現在成為整個人工智能發展的一個瓶頸,這使得整個社會有可能緩一口氣,來面對未來人類如何應對AI的問題。
中共無道德底線 歐美阻其核武AI化
大紀元資深編輯與主筆石山在《菁英論壇》表示,全世界現在談的最多的就是AI軍事化,尤其是核武器,一旦真的發射以後就控制不住了。因為現在美國跟歐洲已經有默契了,它們正在跟中國和俄羅斯試圖要談這個問題,就是一定不能把AI用在核武器的控制上面。如果AI突然偽裝成總統發出核攻擊的指令,這是太令人恐懼的一個前景了。
傑森在《菁英論壇》中表示,AI控制核武器,我想目前還沒有哪個神經病的國家想這麼做,但是,這是在一個和平理性的狀態下說這樣的話。有很多鼓勵AI發展的那些技術人士或者專家,他們說的很多話都是基於目前這樣的狀態,但是他沒有在動態的極端情況下去考慮這個事情會往哪個方向走。而中共是沒有道德底線的,從我們知道的生物科技等各方面都可體現出來,它做出來的東西就是超出人類的倫理道德。但是這個過程中,要是中共真的在未來因為某種原因,不管是南海、台灣海峽跟整個世界變成對手的時候,中共會不會因此開始考慮把AI技術更多地應用於武器上?不說核武器,只是導彈各方面,事實上存在非常大的可能性。獨裁國家經常會說一句話,就是大不了我們死幾億人換來什麼什麼,這就是為什麼目前AI在國際上處於兩難的狀態。一方面大家都覺得應該控制AI的發展,一方面又說應該發展AI,不能讓中共領先了,AI要由西方控制,讓中共發展起來怎麼辦?人類事實上某種程度上是被一些邪惡的因素裹挾著,以技術競爭為藉口,把人類往一個非常危險的境地上推。
AI改變資訊傳播模式 人類文明面臨巨大衝擊
中文大紀元報紙主編郭君在《菁英論壇》中表示,AI軍事化,尤其是用AI來控制核武器,確實是一個最明顯讓人類擔憂的問題,但實際上AI帶來的衝擊遠遠不止在軍事化上。比如有兩個美國科學家用了一個普通電腦,使用AI技術給出指令,讓AI找出可以危害全人類的劇毒的化學結構,結果AI一個晚上就找出了五萬多個新的結構,這個結果把兩位科學家嚇壞了,我想全世界都應該嚇壞了才對,因為誰敢保證這個技術不被壞人使用?
還有深度偽造,AI也可以偽造文書、聲音、畫面。人類過去幾千年都相信眼見為實,這是人類認知和認識這個世界的基礎,是我們世界觀的基礎。如果未來變成眼見未必為實的話,我們現在已經是這個樣子,看到很多東西很真實,我都想這是真的還是假的?我們應該相信什麼?人類文明從某個角度看就是一種資訊流通模式的發展,從語言、文字、圖畫,最後到報紙、雜誌,這種資訊承傳的文化也塑造了後面接下來的文明。但現在AI的發展其實已經衝擊到了資訊的創造和傳播的模式,這對人類文明的方式將是一個巨大衝擊。
此外,有人預計按照現在的速度發展,20年之後AI技術可以取代大部分人的工作,也就是說20年之後,大部分人都沒有工作做了,或者是不需要工作了,那這種所謂的進步是不是太快了?
郭君表示,我們真的能夠適應這個變化嗎?這對人類現存的社會結構、經濟結構會造成一個什麼樣的衝擊,其實沒有人知道。這就是很多人工智能專家呼籲降低AI發展速度的一個原因,目前誰也不知道AI後面走向的含義,人類需要調整和適應未來的這種危機,這是肯定的。
新唐人、大紀元推出的新檔電視節目《菁英論壇》,是立足於華人世界的高端電視論壇,該節目將彙集全球各界精英,聚焦熱點議題,剖析天下大勢,為觀眾提供有關社會時事和歷史真相的深度觀察。
本期《菁英論壇》全部內容,敬請線上收看。
《菁英論壇》製作組