【大紀元2023年12月03日訊】今日社會,武器和軍隊作用,被賦予比殺戮更深的意義。強大的軍力,往往用作威懾,維持世界和平,及人類安全。戰爭,雖然變得隱蔽,但從未停止。【時事軍事】帶您到最前面,看清正邪之爭的細節和真相。
美中領導人11月15日在舊金山舉行的峰會上取得有限的口頭認同中,包括同意在人工智能上合作及恢復軍事方面的交流。但是這些口頭上的承諾遠沒有大熊貓返回中國那麼確定。然而,一些不確定的問題可能對未來有很大的影響。
峰會前就有報導稱,這次峰會將宣布一項協議,禁止在包括核武器在內的多個領域使用人工智能。實際上,這次峰會沒有達成這方面的協議,但白宮和中共外交部發布的消息提到了美中就人工智能進行談判的可能性。峰會結束後,拜登在向媒體發表的講話中解釋說,「我們將讓我們的專家聚集在一起,討論與人工智能相關的風險和安全問題。」
美中官員都沒有透露哪些專家將參與,或將討論哪些風險和安全問題。當然,有很多話題值得討論。這些討論可能涉及不符合人類價值觀的人工智能系統的所謂災難性風險、日益普遍使用的致命自主武器系統(也有人稱其為「殺手機器人」)以及人工智能在決定使用核武、下令核打擊和執行核打擊方面可能承擔的角色。
但是,美中之間達成共識並形成一個有約束力的協議的前景一點也不樂觀。可能不會出台條約或禁令的原因是多方面的,但至少有兩個關鍵原因。一個是沒有一個共識的簡單明瞭的定義,以區分無害的廣泛用於日常生活的人工智能和未來對人類可能構成致命威脅的人工智能。人們認為應用於工業管理、自動機械、系統分析等領域的人工智能,通過對大量數據的處理,推動了現代科技,深刻影響著人類社會。這就引出了第二個原因,它太有用了,以致沒人願意將人工智能排除在軍事領域之外,更不願意因人工智能的缺席而使自己在競爭中處於劣勢。
人工智能在民用領域的成功同樣可以複製在軍事鬥爭中,實際上它們早就成功地用於軍事目的。美國、中共和其它國家正在競相將這些進步融入各自的軍事系統,人工智能領域的軍備競賽已經不可避免地展開。人們擔心的是在這一領域的競爭中不要被甩在後面,而不是在人類命運的基礎上,負責任地尋找更明智的解決辦法。
在所有潛在風險中,人工智能與核武器的結合最令人擔憂。人工智能系統是如此聰明、快速,並正在成為人類活動的核心,它對人類未來的嚴重影響,值得人們花點時間思考,或者至少,讓各方陣營的專家放下立場觀念討論這些問題。
美國一直試圖通過負責任地討論人工智能的發展來解決這個問題。美國國務院一直在推動關於軍事上負責任地使用和限制人工智能自主權的政治宣言。這既不是禁令,也不是具有法律約束力的條約,而是一套基於人類安全的原則。
美國人的宣言概述了使用人工智能的幾項原則,其要點是,在由人工智能管理的武器控制鏈中,要有一個人類決策者來做出生死攸關的決定。這通常被稱為包含人類的指揮和控制環路。其目的是解決與人工智能相關的風險,就是確保自主武器系統不會不分青紅皂白地殺人。這個原則適用於從無人機到戰車、導彈、飛機、軍艦、潛艇等所有武器裝備。相比之下,最大的潛在風險是核武器,包括那些搭載核彈頭的洲際彈道導彈、轟炸機和潛艇。
這份宣言最初的版本特別指出,對通報和執行有關使用核武器的決定及所有行動,都必須有人類的參與。這段描述在後來的版本中被刪除,但維持人類控制的想法一直是美國官員思考這個問題的基礎。今年6月,拜登的國家安全顧問傑克‧沙利文呼籲其它擁核國家,承諾維持核武指揮、控制和使用環路的人類決策權。如果真有這樣一個嚴肅討論問題的機會,這幾乎肯定是美中專家必須討論的問題。
也許沒有人想要一台全自動的末日機器。即使是前蘇聯,在冷戰期間投入了無數資源實現其核指揮控制基礎設施的自動化,也沒能一路走到底。就連莫斯科所謂的「死手」系統,也還是要依賴地下掩體的人類。死手系統是俄羅斯的一個特殊的核武器發射裝置。是在假設俄羅斯遭到毀滅性核打擊以致沒有人可以啟動核武器的情況下,自動發射核彈的系統。
人工智能的日益廣泛應用使一些人產生了這樣的疑問,讓人處在控制環路中到底有多大意義,以及是否需要調整核政策,在人類決策權的問題上做出妥協。原因是,人也會做出很多錯誤的決定。他們認為,真正的危險不是將使用核武的決定權交給人工智能,而是決策者對工智能提供的決策方案的依賴,並影響他們的決策,就像開車時依賴GPS導航一樣。
研究表明,開車時依賴導航應用程序的人會逐漸失去自己判斷位置和方向的基本技能,如果應用程序出錯,人們就可能迷失方向。同樣的擔憂也適用於人工智能,人類決策者可能過度依賴人工智能提供的建議,其後果可能要嚴重得多。也就是說,如果人工智能系統產生了一個極具說服力的錯誤訊息,這種情況下,人類的決策權可能無法成為我們所希望的保障。
美國擁有強大的核力量,各種陸基、海基和空中發射的核導彈,在接到通知幾分鐘內就可以發射。中共也在模仿這種姿態,建立新的導彈發射井,在軌道上安裝新的預警衛星。在衝突爆發的敏感時期,萬一核預警系統出現誤報,人類決策者可能會信以為真,這才是真正的危險。也就是說,不管控制環路中是否有人類決策,都不能完全回避風險,但這與人類決策權的重要性並不衝突。
無論如何,人類似乎並不能確保在人工智能參與的系統控制中保持永遠正確。但絕對不能缺少人類決策環節,同時還要最大限度地減少人類對人工智能的依賴。
實際上,在人工智能參與的武器系統控制環路中設置人類決策者的本意,並不僅僅是為了提高系統本身的安全保證。根本目的是不要把決策權完全交給人工智能,而出現把人類排除在外,人工智能自主全權決策、控制和發展的局面。這就相當於把世界交給人工智能統治,那樣人類就危險了。
要避免這樣可怕的前景,需要整個人類的努力。中共能否在激烈競爭、極力推動軍事現代化,並試圖發展地區甚至全球霸權的情況下,與美國和西方達成一個在人工智能發展上有約束力的限制性的條約?前景並不樂觀。
無論人們是否喜歡,各國領導人可能都會越來越依賴人工智能。現在已無法禁止人工智能,就像人們無法禁止任何其它科技一樣。即使還有一些清醒的美國人或其他人在大聲呐喊,人工智能領域無底線、無原則的競爭可能會使人類陷入危險。但是,對峙陣營的競爭還是使一些人正在失去理性。
人們只能希望,不管是中、俄、美等國家的專家學者和研究人員,放下任何政治偏見,在人類認知的基礎上討論人工智能的安全問題。
撰文:夏洛山(《大紀元時報》記者,曾經歷過十幾年的軍隊生活,主要從事軍隊的教學和一些技術管理工作)
製作:時事軍事製作組
關注《時事軍事-夏洛山》:https://www.ganjing.com/zh-TW/channel/1f6pro4fi585ppZp9ySKkwd0W19f0c