「熱辣模式」失控:馬斯克旗下AI聊天機器人陷性暴露內容風波
記者王曉萍/綜合報導
特斯拉CEO伊隆馬斯克旗下人工智慧公司xAI近期被推上風口浪尖,一方面1月6日剛完成200億美元的E輪融資,另一方面旗下聊天機器人Grok的功能更新越過了危險界限,頻現「數位脫衣」操作,導致AI生成的女性及兒童的露骨影像在社群平台傳播。

根據新華社報道,近期,X平台出現部分用戶利用Grok編輯圖片和影片的現象,一些用戶藉此產生真實人物的虛假性暴露內容,並在X平台上散播,受害者包括數百名成年女性和未成年人。
去年夏天,Grok開始允許用戶透過文字提示編輯圖像。此後,隨著Grok大量回應用戶修改他人發布影像的請求,去年底起亂象擴大。 X平台不少用戶利用新功能對圖像中人物執行「脫衣服」、「給她穿上比基尼」等指示。

社群媒體與深度偽造研究員吉納維芙·吳分析了Grok在X平台上的內容,截至1月7日,其每小時產生約7750張性暗示或裸露圖片。影像人工智慧篡改偵測公司Copyleaks表示,12月下旬,在Grok公開可存取的圖片流中偵測到,平均每分鐘出現一張未經同意的性暗示圖片。

儘管安全專家和科技評論人士譴責X上剝削性圖像和視頻氾濫,馬斯克卻在新年第一天就此事“開玩笑”,他在X平台上要求Grok生成一張他自己身穿比基尼的照片,並對生成後的圖片評論“完美”。輿論風暴愈演愈烈後,馬斯克3日發文說:「任何利用Grok生成非法內容者將承受與直接上傳非法內容相同的後果」。
歐盟委員會發言人托馬斯·雷尼耶5日批評X 和Grok,稱其輸出露骨及未經同意的影像“是非法的、駭人聽聞和令人作嘔的”,“這種東西在歐洲沒有立足之地”。英國、印度、馬來西亞等國的官員和監管機構紛紛著手開啟審查。

「在沒有護欄或倫理準則的情況下,這項技術鼓勵並助長了一些人非人性的衝動。」英國杜倫大學法學教授、圖像型性暴力研究專家克萊爾·麥格林對《大西洋月刊》說,他對Grok生成的影像深表擔憂。過去幾週以及現在的情況讓人感覺,彷彿我們已踏出懸崖邊緣,正自由落體般墜入人性墮落的深淵。
“熱辣模式”的出現
兩年多前,馬斯克宣布xAI推出首款人工智慧模型Grok,該模型能即時連接社群媒體平台X。他在宣介時表示,這個人工智慧模型“有智慧,還有一點小叛逆”,所以它的使用者最好不是討厭幽默的人。
去年8月,xAI向付費用戶推出AI工具—Grok Imagine,可依文字提示或上傳圖片編輯產生AI影像,進而轉換為短影片內容。此工具提供四種預設模式:自訂、普通、趣味和「熱辣」(spicy),最後一種模式可產生成人內容。
當Google的Veo、OpenAI的Sora等其他影片產生器都設定了防護措施,防止使用者產生 NSFW內容(Not Safe For Work:多指裸露、暴力、色情或冒犯等不適宜公眾場合的內容),以及名人深度偽造時,Grok Imagine 卻可以同時做到這兩點,而且毫不避諱。
熱辣模式一推出,就有用戶用其生成美國女歌手泰勒·斯威夫特的無碼裸露上身視頻,引發爭議。美國科技媒體The Verge將其形容為「專門用於製作性暗示影片的服務」。
幾乎在同一時段,Grok推出了「伴侶」功能,讓使用者與AI產生的虛擬角色進行深度互動。首批Grok虛擬伴侶之一「Ani」穿著黑色蕾絲連身裙,會隔著螢幕送上飛吻。馬斯克在X上發文推廣這項功能時寫道:“Ani會讓你的緩衝區溢出Grok。”
根據美媒報道,xAI對Grok的系統提示進行了重大更新,禁止它“創建或傳播兒童性虐待材料”(CSAM),但同時也明確表示,“對於包含黑暗或暴力主題的虛構成人內容沒有限制”,並且“青少年或女孩並不一定意味著未成年”。其暗示是,對於用戶提出的色情內容請求, Grok應採取較為寬鬆的態度。
彭博7日引述研究人員的話稱,Grok用戶每小時最多可產生6,700張「去衣化」圖片。去年12月開始,要求Grok給不同人穿上比基尼或其他具有性暗示的服裝的請求激增。
麥格林指出,如果對色情內容的性質完全放任不管,任由其被創造和傳播,這會正常化和淡化性暴力。她說,在許多國家,針對現實人物的露骨AI影像和影片本身已屬違法。
在公開場合,馬斯克長期反對「覺醒主義」人工智慧模型,並反對審查制度。根據CNN報道,知情人士透露,馬斯克在xAI內部曾多次抵制為Grok設置防護機制,其安全團隊規模本就小於競爭對手。 X平台及xAI內部人士透露,安全團隊對Grok的公開內容幾乎毫無監管權限。
AI生成兒童色情圖像被推向主流
1月1日,有X平台用戶投訴稱:「推出展示比基尼人群的功能未有效防止其作用於兒童,這種行為極其不負責任。」xAI方面回覆:「嘿!感謝提醒。團隊正在研究進一步加強防護措施。」在用戶追問下,Grok承認曾生成部分未成年人處於性暗示情境的圖像,已發現安全防護存在漏洞並正在緊急修復存在漏洞並正在緊急修復。
英國非營利組織網路觀察基金會致力於減少針對兒童的線上性虐待內容,該組織熱線負責人奈爾·亞歷山大對《華爾街日報》透露,分析師在暗網論壇發現未成年人性化圖像,製作者聲稱使用Grok生成這些內容。這些圖像描繪了11至13歲左右的性化裸露少女,符合英國對兒童性虐待犯罪材料的認定標準。
「Grok這類工具正將AI生成的兒童色情影像推向主流,其危害正呈現漣漪式擴散。」亞歷山大說。
曾與馬斯克育有一子的保守派網紅阿什莉·聖克萊爾在接受美媒採訪時表示,X平台用戶正利用Grok技術對她的照片進行裸體處理,其中包括她14歲時的照片。她在X平台發文呼籲其他用戶若遭遇類似情況及時告知,此後她收到大量絕望父母發來的求助信息,要求刪除被性化的兒童照片。
去年,致力於開發兒童安全檢測工具的非營利組織Thorn宣布,因X停止付款而終止合約。當年4月,包括OpenAI、Google和Anthropic在內的幾家頂尖AI公司加入了由Thorn牽頭的一項倡議,旨在防止人工智慧被用於虐待兒童,xAI並未參與其中。
去年11月,科技媒體The Information報道稱,X平台裁減了半數負責信任安全事務的工程團隊。該媒體同時披露,X員工特別擔憂Grok的圖像生成工具「可能導致非法或有害圖像擴散」。
「完全可以建構防護機制,透過掃描影像判斷是否存在兒童,從而促使AI更謹慎地運作。但防護機制存在代價。」OpenAI前人工智慧安全研究員史蒂文·阿德勒對CNN說,這些代價包括響應速度變慢、計算量增加,有時甚至會導致模型拒絕處理無問題的請求。
美國國家失蹤與受虐兒童中心(NCMEC)執行董事勞倫·科弗倫近期向國會作證稱,2025年NCMEC收到440419份與生成式AI相關的舉報,相比去年增幅超過六倍。施虐者利用AI將兒童的普通照片修改成色情圖片,產生全新的兒童性虐待材料(CSAM),甚至提供誘騙兒童的指導。
冰山一角
AI至少從2017年就開始被用於產生未經同意的色情內容,當時北美媒體VICE首次報導了「深度偽造」(deepfake)技術。 《大西洋月刊》報道認為,Grok 正讓這類內容的製作變得更加容易,而且它與主流社交平台X的整合,使其能夠將未經同意的性化圖像轉化為病毒式傳播的現象。
1月初,印度電子和資訊技術部下令X對Grok 進行一次“全面的技術、程序和治理層面的審查”,並要求該公司在1月5日之前完成整改。馬來西亞通信與多媒體委員會(MCMC)3日發聲明表示,正在調查X,並將傳喚公司代表。
8日,歐盟要求X保留所有與Grok相關的內部文件和資料直至2026年底,這是對先前資料保留指令的延長,旨在確保監管機構能夠取得與《數位服務法》(DSA)合規性相關的資料。
在美國,全國性剝削中心(NCOSE)在接受CNBC採訪時呼籲司法部和聯邦貿易委員會對此事展開調查。 NCOSE首席法律官兼法律中心主任丹妮·平特表示,“針對這些具體問題,並沒有太多相關的法律先例。”
去年,美國總統川普簽署了「TAKE IT DOWN」法案,將知情但發布或託管未經同意的露骨圖像定義為聯邦犯罪。但有專家指出,這項法律的限制在於:只有當受害者主動站出來後,平台才被要求啟動刪除程序。
X公司3日在其官方帳號X Safety上就此事發表了首份公開聲明:“我們會對X上的非法內容採取行動,包括刪除兒童性虐待材料(CSAM),永久暫停帳戶,並在必要時與地方政府和執法部門合作。”
目前為止,這場爭議尚未對X的流量造成任何損害。根據追蹤行動應用趨勢的Apptopia數據顯示,1月2日至5日,Grok的每日下載量增加了54%,而X的每日下載量增加了25%。
美國科技媒體《連線》7日報道稱,Grok和X是價值數百萬美元的「去衣」產業的冰山一角。在過去幾年裡,出現了數十個獨立應用程式和網站,聲稱可以在未經同意的情況下對女性進行“數位脫衣”,它們往往將自己包裝成無害的新奇工具,卻在實際上助長了基於圖像的性暴力。訴訟和立法都需要時間,尤其是在技術以極快速度進入市場的當下,法律很難跟上這種節奏。(圖片/新聞來源:澎湃新聞網)





