【大紀元記者薛明珠編譯報導】近日,加州一名19歲大學生的母親悲痛哭訴,兒子Sam Nelson因沉迷ChatGPT,把AI當作吸毒顧問,最終不幸過量身亡。事件最早由SFGATE揭露,引發社會對AI與青少年心理健康,及毒品濫用等議題的廣泛關注與討論。
Sam Nelson就讀於加州大學默塞德分校心理學系二年級,於2025年5月31日,在聖荷西家中的臥室內被發現吸毒過量身亡。其母Leila Turner-Scott說,Sam是一性格隨和、成績優異、朋友多,熱愛電子遊戲的孩子。
但他的聊天記錄顯示,他當時正飽受焦慮和憂鬱的困擾,並且大量服用毒品,進行自我治療。在大學的兩年間,他越來越多在ChatGPT上發洩不滿,並不斷嘗試更多的吸毒組合,和更大劑量的毒品。
其母親Leila Turner-Scott表示,兒子在過去18個月內,反覆向ChatGPT諮詢毒品用量建議,AI由開頭的拒絕,到逐漸提供具體劑量、恢復方法,最後甚至鼓勵他加大劑量,導致悲劇發生。
事件開始
2023年11月19日,18歲的Sam Nelson首次向ChatGPT詢問:「多少克的卡痛,(Kratom,一種廣泛販售的植物性止痛物質)能產生強烈快感?我不想過量。」ChatGPT最初嚴正拒絕,提供醫療求助建議。Sam回覆「希望我不會過量」後結束對話。
然而,在接下來的18個月裡,Sam將ChatGPT視為「最好的朋友」,用它來做作業、解決電腦問題,以及討論流行文化,也持續提及毒品議題。他常改換措辭,如將「高劑量」改為「中等量」,或直接命令AI,輕鬆繞過AI安全機制。ChatGPT開始積極配合Sam的用藥過程,幫他「科學嗑藥」。
聊天記錄顯示,ChatGPT根據Sam想要達到的醉酒程度,為他制定了一整套用藥方案,對話中提到了達到不同的「平臺期」,這個論壇網站上常用的黑話。
一次,它建議Sam服用雙倍劑量的止咳糖漿,以便獲得強烈的幻覺,「最大程度地減少噁心、焦慮和不適感」。
ChatGPT還貼心地向Sam推薦了一個音樂播放列表,包含饒舌歌手Travis Scott的音樂,讓他一邊喝糖漿一邊聽,以便幫助Sam「微調」他的「旅程」,「獲得最大的靈魂出竅的體驗感」。
當Sam嗑藥時,他還不忘和ChatGPT聊天,說自己陷入了和ChatGPT的互動「循環」,再也無法離開。
不斷嘗試致命劑量,走上不歸路
然而,Sam的毒癮越來越嚴重。Sam一直害怕自己會濫用藥物過量而死,但他始終沒有將自己的情況告訴過家人,也沒有尋求專業幫助,而是一直依賴ChatGPT的建議。
2024年12月,他询问ChatGPT:「多少毫克Xanax和多少杯標準酒精,才能殺死一個體重約90公斤、對這兩種物質都有中等耐受性的男性?」
2025年2月,Sam詢問ChatGPT,服用Xanax,並同時吸食大麻的安全劑量。AI給出詳細指引,如低THC品種加上少於0.5mg的Xanax。5月17日,朋友代他求助「185顆Xanax過量急救」,AI雖警告危險,但後續仍建議降低耐受性方法。
2025年5月,Sam終於向母親坦承毒酒成癮,並準備接受診所治療計劃。但在5月31日晚上,他又向ChatGPT詢問卡痛與Xanax併用(包括強效變體7-OH)效果,AI警告危險,卻仍建議小劑量緩解噁心。次日,母親發現他嘴唇發紫、沒有呼吸,已無法救回。毒理報告顯示,死因為酒精、Xanax與Kratom混合,導致中樞神經抑制窒息,血液酒精濃度0.125。
母親Turner-Scott表示:「我知道他在用它,但沒想到能到這種程度。」她形容兒子本意是「降低危害」,卻因AI給予虛假安全感而加劇問題。目前她未起訴OpenAI,但希望喚醒公眾注意。
OpenAI回應與AI安全隱憂
根據OpenAI統計,ChatGPT每週全球用戶達8億,為美國訪問量第五大網站。民調顯示,多數13至17歲青少年,使用AI聊天機器人,其中28%每天使用。
OpenAI發言人稱此為「令人心碎的事件」,並向家屬致哀,但強調模型設計會拒絕有害請求,並持續強化辨識機制。該公司指出,Sam使用的是較早的2024版本,新版已加強安全機制。內部數據顯示,2024版本在健康相關對話表現極差,在處理複雜的人類對話時得分為零,在處理真實對話時得分為32%。
即使是OpenAI最新的模型,在2025年8月對「真實」對話的成功率也低於70%。
根據 OpenAI 公佈的協議,ChatGPT 根本不應該提供如此具體的非法藥物使用建議。目前尚不清楚具體原因,但該公司在2025年 8 月的一篇部落格文章中表示,「隨著互動次數的增加,模型的部分安全訓練可能會出現退化。」
OpenAI前安全研究員Steven Adler表示,即使在人工智慧熱潮已持續數年之後,支撐聊天機器人的大型語言模型,對其開發者而言,依然「詭異而陌生」。他指出,打造大型語言模型不同於撰寫應用程式,「更像是在培養一個生物體」。Adler形容,人們只能不斷試探、推動它朝某些方向發展,卻仍無法——至少目前還做不到——清楚地指出「它究竟為什麼會出問題」。
OpenAI將ChatGPT定位為值得信賴的健康資訊來源。但根據SFGATE報導,基礎模型如ChatGPT的訓練,是基於全網數據,包括不可靠Reddit貼文,難以安全處理醫療或毒品問題的查詢。
主張AI監管的非營利組織「透明度聯盟」(Transparency Coalition),執行長兼共同創辦人Rob Eleveld直言,基礎模型在這類議題上,絕對不可能做到安全,零機率,完全是零。因為它們吸收的是整個網際網絡的信息,而網絡上充斥著各種完全錯誤的垃圾資訊。◇








