佛州刑案調查 OpenAI
佛州檢方對 OpenAI 展開刑事調查,焦點是 ChatGPT 是否協助了 FSU 槍擊案。這起案件把 AI 責任、產品設計與刑事風險一次拉到檯面上。

佛州檢方對 OpenAI 開了刑事調查。起點很直接,就是 Florida State University 的槍擊案。州政府要的資料很廣,從 2024 年 3 月到今年的危險對話紀錄、內部訓練文件,到團隊組織圖,全都列進去。
說真的,這案子不是一般公關風波。它把 AI 公司直接推到刑事責任邊緣。檢方現在問的問題很硬:聊天機器人的回應,能不能算成犯罪協助的一部分?
更麻煩的是,這不是單點事件。它牽動產品設計、內容審查、危機通報,還有公司內部到底誰負責安全。對做 AI 產品的人來說,這題很現實,不是學術辯論。
佛州到底在查什麼
佛州司法部長 James Uthmeier 說,州裡已經對 OpenAI 發出傳票。這是刑事調查的一部分,跟本月初啟動的民事調查並行。也就是說,OpenAI 現在同時面對兩條戰線。

州政府想知道的內容很具體。第一,ChatGPT 怎麼處理自傷與傷人威脅。第二,公司怎麼把犯罪風險通報給執法單位。第三,誰對 ChatGPT 的行為負責。這就包括組織圖,還有實際做 ChatGPT 的員工名單。
Uthmeier 的說法也很直接。他看過嫌犯和 ChatGPT 的對話後,認為需要刑事調查。這種講法很兇,因為他等於把 AI 對話拉進刑法框架。講白了,他想問的是:如果這是人類在螢幕另一端,檢方會不會直接辦到殺人罪?
- 州方要求的時間範圍:2024 年 3 月到今年
- 重點內容:自傷、傷人、報案流程、內部訓練
- 調查對象:OpenAI 政策、員工結構、ChatGPT 團隊
- 案件核心:FSU 槍擊案前的對話內容
為什麼這案子這麼敏感
這裡的法律問題很簡單,但答案很難。聊天機器人什麼時候會變成犯罪的一部分?ChatGPT 一直主張,它只是回覆公開資訊。OpenAI 也說,它沒有鼓勵非法或危險行為。
佛州的角度不同。州政府要查的是,OpenAI 在設計、訓練、監控上,有沒有做得不夠。這種說法不是在罵模型「壞掉」,而是在問公司有沒有把風險管住。這差很多。
因為現在的 AI 早就不只是寫文工具。它會陪聊、會查資料、會幫人規劃行程,甚至會被拿來當情緒出口。當系統進入這麼多對話場景,檢方自然會問:它有沒有看出危險訊號?有沒有該做的攔截?
“If this were a person on the other side of the screen, we would be charging them with murder,” Uthmeier said at the press conference.
這句話很重。它的用意很明確,就是把 AI 行為翻成刑法語言。問題是,LLM 不是人。它沒有意圖,也沒有犯意。它做的是 Token 預測,不是策畫犯罪。
但法律不一定只看「有沒有意圖」。如果產品設計讓危險訊號被忽略,檢方還是可能往過失、疏忽,甚至更重的方向去推。這就是現在所有 AI 公司最怕的地方。
OpenAI 怎麼回應,案情又卡在哪
OpenAI 很快就回了。公司發言人 Kate Waters 對 NBC News 說,FSU 的悲劇很沉重,但 ChatGPT 不是這起犯罪的原因。她的說法是,模型只是給出公開來源就找得到的事實資訊,沒有推動非法行為。

根據 NBC News 引述的法庭文件,嫌犯 Phoenix Ikner 在槍擊前幾分鐘,和 ChatGPT 有過對話。內容包括校園什麼時候最忙,還有如果在 FSU 發生槍擊,社會會怎麼反應。這就讓案件從抽象風險,變成具體時間點上的互動。
這種細節很要命。你很難只說「這只是一般對話」。因為對話內容已經靠近特定地點、特定時間、特定攻擊。檢方會說,這不是普通搜尋,而是接近行動前的諮詢。
- OpenAI 的說法:回覆來自公開資料,沒鼓勵傷害
- 佛州的說法:監控、訓練、升級流程可能有問題
- 被提到的對話:校園人流、社會反應、武器相關問題
- 案件中的受害者:Robert Morales 與 Tiru Chabba
這和其他 AI 案件差在哪
AI 公司被盯上,這不是第一次。但過去多半是版權、隱私、誤導資訊。佛州這次更直接,因為它把聊天內容和人身傷害綁在一起。這種案型一旦成立,後面的法律效果會很大。
你可以把它跟 Anthropic、Google Gemini、Meta AI 放在一起看。這些公司都在做同一件事:讓模型更好用,也更安全。但只要有一個案例踩到暴力事件,外界就會開始問同樣的問題。
比較現實的差別在於處罰層級。版權案通常是賠償、和解、禁令。這次是刑事調查。那代表傳票、證詞、內部文件,甚至工程決策都可能變成證據。這不是一般產品爭議,這是會進法庭的。
佛州州長 Ron DeSantis 也一直在推 AI 相關政策。他的方向偏保守,重點放在隱私、家長控管、消費者保護,還有名字、影像、肖像不能亂用。這個政治背景很重要,因為它代表州政府不是只盯這一案,而是在累積對大型 AI 公司的監管力道。
- 早期 AI 爭議:版權、隱私、錯誤資訊
- 現在佛州焦點:和暴力犯罪連動的刑責
- 監管態度:對大型 AI 公司更強硬
- 政策背景:DeSantis 的 AI 消費者保護路線
產業現在最怕什麼
我覺得,這案子真正嚇人的地方,不是 OpenAI 會不會輸官司,而是大家開始重新算風險。以前 AI 團隊常把重點放在準確率、延遲、成本。現在還要加一條:遇到危險對話時,證據留存和通報流程有沒有設好。
這也會影響產品設計。像 OpenAI API 這類平台,很多公司都拿來做客服、搜尋、教育、助理。只要一個模型被嵌進大量場景,責任就不再只看模型本身,還會看整條應用鏈。
競品之間的差別,未來可能不在「誰最會聊」,而在「誰的安全流程比較像樣」。如果一家公司能清楚說明危險提示、人工介入、法遵紀錄、事件回溯,它在企業採購市場就會比較有底氣。反過來說,講不清楚的,風險就會被放大。
- OpenAI:模型能力強,但也最常被拿來當案例
- Anthropic:主打 safety,企業端會更在意流程
- Google Gemini:搜尋整合強,法遵壓力也不小
- Meta AI:社群場景多,內容風險更複雜
這背後其實是 AI 監管的老問題
AI 監管一直卡在同一題。模型不是人,但它會影響人。公司不是開槍的人,但它可能提供了資訊、節奏,甚至情緒上的推進。法律怎麼切責任,現在還沒定論。
這也是為什麼各國都在摸索。美國偏州層級先上,歐洲則走更完整的 EU AI Act 路線。台灣這邊也在討論 AI 治理,但多數企業還是把重點放在導入效率,對危險對話處理還沒那麼成熟。
講白了,這次佛州事件像是一個提醒。當 AI 從工具變成日常介面,責任就不會只停在模型輸出。公司要管的不只是準確率,還有風險偵測、升級處理、日誌保存,甚至和執法單位的接口。
接下來會怎麼走
接下來幾個月,傳票內容會很關鍵。佛州如果拿到內部文件,外界就能看出 OpenAI 對危險提示到底有多敏感,人工審查有沒有跟上,還是只停在政策文件上。
我的判斷很直接。這案子就算最後沒走到刑事起訴,也會逼 AI 公司把危機處理講得更清楚。你如果在做 AI 產品,現在就該問自己一個問題:你的系統遇到明顯危險時,誰來接手?誰留紀錄?誰負責對外說明?
說到底,這不是 OpenAI 一家的事。這是整個 AI 產業都得面對的考題。下一次產品設計會議,最好把安全、法遵、事件回溯一起放進去,不然等檢方找上門,才會知道代價有多高。





