【2026年01月20日訊】(英文大紀元記者Autumn Spredemann撰文/張紫珺編譯)人工智能(artificial intelligence,簡稱AI)被宣傳為從生產力革命到近乎自主的決策者等各種各樣的角色。
然而,隨著AI工具逐漸融入日常運營,人們開始擔憂:購買AI產品後,如果其承諾未能兌現,後續將面臨何種局面?
從誇大的準確率聲明,到不透明的性能指標,有人開始提出這樣的問題:當AI系統表現不如預期時,應該如何補救?
這種脫節引起了消費者保護機構、律師和AI專家的關注,他們表示,營銷聲明需要得到切實有效的執行。
去年,圍繞生成式AI(generative AI)——這項技術中最常見的形式之一——取得突破性進展所引發的種種猜測,導致了IBM首席發明家兼聯合國AI顧問尼爾‧薩霍塔(Neil Sahota)所說的「虛假營銷策略」(false marketing tactics)。
這種現象被稱為「漂AI」(AI washing)。它類似於「漂綠」(green washing)的概念,即公司虛假地將自己的產品貼上環保或可持續的標籤;「漂AI」則是指企業對其AI模型的能力做出虛假聲明或誇大的宣稱,使其看起來更先進,以吸引投資或在市場中獲得競爭優勢。
隨後,美國聯邦貿易委員會(Federal Trade Commission,簡稱FTC)一直牽頭開展各項舉措,以追究人工智能公司對其產品的責任。2024年,該機構推出了「人工智能合規行動」(Operation AI Comply),宣布將對利用「人工智能炒作」(AI hype)的企業採取執法行動。
該倡議旨在打擊利用AI工具「欺騙、誤導或詐騙人們」的行為。
「聯邦貿易委員會致力於確保人工智能公司能夠快速創新,同時維護人工智能平台的安全、可靠和客觀性,以符合總統的人工智能行動計劃。」聯邦貿易委員會公共事務副主任克里斯托弗‧比塞克斯(Christopher Bissex)告訴《大紀元時報》。
比塞克斯表示,該機構最近的一些行動包括:對就其AI產品的準確性或有效性做出虛假聲明的公司發布命令;起訴做出虛假營銷聲明的企業;以及開展一項研究,以收集有關公司如何應對AI聊天機器人潛在風險的信息,尤其是在涉及兒童的情況下。

法律框架
美國網絡安全公司「ARC防禦系統」(ARC Defense Systems)的創始人克里斯托弗‧特羅科拉(Christopher Trocola)表示,問責機制的缺失並非監管不力所致。
「這是因為人們缺乏對現有法律已適用於AI的理解。企業認為『沒有專門針對AI的法律,所以我們無需承擔責任』。」他告訴《大紀元時報》。
特羅科拉深知新興行業的種種弊端,在目睹同樣的「失敗模式」幾乎導致2017年太陽能行業崩潰後,他正在構建AI合規框架。當時,他領導的合規諮詢團隊工作,在與聯邦貿易委員會合作(FTC)的過程中,保護了數百萬美元的合同。
如今,正如他所說,「我現在的工作,就是確保AI不會傷害人們(的權益、隱私、安全或生活)。」
他表示,許多現行法規可以應用於AI模型。
特羅科拉表示,真正的問題是,「公司沒有意識到他們的AI正在實時造成違反法規的行為,而這些法規已經生效數十年了。」
「法院不會等待『人工智能法律』出台,他們現在就在應用現有的法律框架。」他說道。
「當現有法規遭到違反時,自願性的承諾幾乎起不到什麼保護作用,而且大多數公司沒有審計記錄來證明自己並無疏失。」
美國網絡安全和人工智能諮詢公司OODA的首席技術官鮑勃‧古爾利(Bob Gourley)表示:「針對誤導性聲明的執法行動——例如消費者保護——很可能會在未來幾年內加強,因為相關的執法機制其實早已存在。」

「另一方面,對於與安全保障相關的違規行為,很難強制執行,因為沒有與(AI)違規行為相關的法規。」古爾利告訴《大紀元時報》。
稅務律師、稅務服務公司Silver Tax Group創始人查德‧西爾弗(Chad Silver)表示,他親眼目睹了有關人工智能公司承諾的監管規定存在哪些問題。
「科技巨頭與政府之間達成的自願性自律協議如今在聯邦法律上已不具備任何法律效力。」西爾弗告訴《大紀元時報》,「我的團隊親眼目睹軟件開發商一方面保證遵守稅法,另一方面又通過苛刻的許可協議逃避所有企業責任。這些企業聲稱他們的算法符合美國國稅局的指導方針,但當國稅局發出正式傳票時,他們卻無法提供審計記錄。」
「我們幫客戶免除了16.7萬美元的債務,因為我們證明客戶是基於自動化系統提供的虛假信息的建議下行事。迄今為止,最好的問責方式仍是訴訟,因為法院會責令進行證據開示,並為受騙消費者提供實際賠償。」西爾弗補充道。
2025年,麻省理工學院(Massachusetts Institute of Technology,簡稱MIT)的研究項目「去中心化架構中的網絡化AI代理」(Networked AI Agents in Decentralized Architecture)揭示,儘管在生成式AI領域投資了超過400億美元,但95%的企業沒有獲得任何投資回報。
麻省理工學院的這份分析,通過對300多個AI項目進行系統性審查,對52個組織的採訪,以及對153位行業領袖進行的調查,提供了一個遠離行銷宣傳、更加清醒的AI現實面貌。
總部位於加州的蘭德公司(RAND Corporation)的一項分析得出了類似的結果,發現超過80%的人工智能項目以失敗告終,失敗率是非人工智能IT項目的兩倍。
人工智能產品的支持者則將問題歸因於管理層缺乏對AI的理解,以及在部署後用來衡量技術成功與否的指標存在偏差。總部位於芝加哥的軟件和服務評測平台G2 發布的一項研究顯示,已有 57% 的公司將 AI 代理投入正式生產環境——而非試點階段——並展現出從測試到規模化應用的周期相當短。

此外,G2的分析指出,83%的受訪買家表示對AI代理的表現感到滿意。
相比之下,波士頓諮詢集團(Boston Consulting Group)去年對全球1,250多家公司進行的一項研究發現,只有5%的公司能大規模實現AI的價值。更值得注意的是,60%的企業表示儘管投入「龐大資金」,卻未獲得任何實質價值,或僅創造微薄收益。
一些專家表示,提高透明度和加強審計機制,是企業辨別自身是否在AI投資上受誤導的關鍵所在。
「一項值得信賴的審計應括模型層級的檢查、安全測試、來源追溯的審查,以及組織治理的評估。」古爾利說道。
他還表示:「審計還應檢視培訓數據、效能、偏見、對誤用的韌性,以及風險緩解策略。審計應定期進行,例如每年一次,其中一部分內容將公開匯總,而組織內部的具體問題則不應披露,因為那屬於商業機密。」
特羅科拉認為對AI的審計方法需要改變。
「目前的做法是本末倒置。大家都在審核『人工智能治理』,也就是監控使用AI的員工。這是錯誤的目標。我們需要審計的是人工智能安全——也就是AI本身在做什麼。」

他表示,這類審計應該包括人工智能漂移等內容——也就是AI模型的性能和準確性會隨著時間的推移而逐漸下降的現象,其中包括出現幻覺(hallucinations,註:AI會產生看似合理、語氣很肯定,但實際上是錯誤、捏造或無根據的內容)、資訊外洩和偏見等問題。
「這就是為什麼70%到80%的企業AI項目都會失敗的原因。他們監控了錯誤的東西。」特羅科拉說道。
西爾弗認為第三方績效審計是必要的。
他說:「前沿AI模型提供商面臨的監管環境十分嚴苛,因為各州法律要求他們報告年度能源消耗和訓練數據集。第三方機構應該每六個月對模型的權重和偏差進行一次審計,而且審計結果必須具有公信力。」
古爾利堅信人工智能透明度的重要性。
「標準應該具體規定模型設計的文檔要求、數據來源、局限性、風險分析和緩解計劃,這些內容需要針對每個高影響領域進行調整。」他說道。
他認為,認證工作應該由混合型機構或美國公共機構(例如國家標準與技術研究院)來推動,或由人工智能監管機構與獨立專家合作共同執行。
2025年12月11日,白宮發布了「確保人工智能國家政策框架」的行政命令,承諾建立一個「負擔最小」(minimally burdensome)的監管結構,其中包括人工智能訴訟工作組、對各州人工智能法律的評估以及可能的聯邦報告和披露標準。

斯坦福大學(Stanford University)以人為本人工智能研究所(Human Centered Artificial Intelligence institute)的研究人員預測,經過多年的「數十億美元的投入」,2026年可能是AI的一個分水嶺:屆時,AI的實際效用將受到嚴格審查。
斯坦福大學的一篇題為「斯坦福人工智能專家預測2026年將發生什麼」(Stanford AI Experts Predict What Will Happen in 2026,12/15/2025)的文章指出:「來年需要的是嚴謹而非炒作。問題不再是『AI能做到嗎?』而是『做得怎麼樣?成本是多少?為誰服務?』」
2025年12月,總部位於瑞士的世界經濟論壇(World Economic Forum)表示,如果說2025年是「人工智能炒作」(AI hype)之年,那麼今年可能是「人工智能清算」(AI reckoning)之年。
原文:The Era of ‘AI Washing’ 刊登於英文《大紀元時報》。








