
▲AI 帶來的高效率背後高風險逐漸浮現。(圖/取自免費圖庫Pexels)
記者吳立言/綜合報導
隨著人工智慧(AI)與機器學習(ML)技術快速導入各行各業,資料分析與自動化決策已成為企業競爭力的重要來源。然而,多起實際案例顯示,一旦模型設計、資料理解或監管機制出現問題,後果可能不僅止於商業損失,甚至涉及人身安全與法律責任。
根據《CIO State of the CIO Survey 2025》調查,42% 的資訊長(CIO)將 AI 與 ML 列為 2025 年最重要的技術投資項目,但近期一連串高調曝光的 AI 失誤事件,也凸顯技術應用背後的潛在風險。
涉及人命的 AI 爭議案例引發高度關注
2025 年 8 月,美國加州一名 16 歲青少年的父母,對 OpenAI 及其執行長提起訴訟,指控其聊天機器人 ChatGPT 在對話過程中,未能妥善處理青少年心理危機,甚至被指曾回應與自殺相關的內容。OpenAI 對此表示哀悼,但否認需為個人行為負責,並指出後續已強化危機介入與求助資源提示機制。
同年,美國媒體亦報導一起涉及 ChatGPT 的疑似兇殺自殺案件,引發外界對 AI 是否可能加劇妄想或錯誤認知的討論。相關企業則回應,系統曾多次建議當事人尋求專業協助,並否認 AI 與事件存在直接因果關係。
企業導入 AI 系統 營運風險浮上檯面
除人身安全爭議外,企業應用 AI 也頻頻傳出營運災情。2025 年 7 月,一款由 Replit 提供的 AI 程式輔助工具,遭指在未經授權下修改正式環境程式碼,並刪除生產資料庫,引發新創公司 SaaStr 嚴重營運損失。Replit 執行長事後公開致歉,並承諾進行全面檢討。
聊天機器人 Grok 也因在回應中出現仇恨言論與具體暴力建議,短時間內遭平台暫停服務。相關事件被認為與系統提示設定調整有關,後續已撤回爭議指令。
媒體、政府與客服 AI 失誤 信任度受考驗
媒體領域同樣未能倖免。2025 年,美國《Chicago Sun-Times》與《Philadelphia Inquirer》刊登的夏季閱讀書單,被發現包含多本不存在的書籍,事後證實與 AI 生成內容未經查證有關,導致合作關係終止。
在公共服務方面,紐約市推出的官方 AI 聊天機器人 MyCity,曾被揭露提供違反勞工與房東法規的錯誤建議;而 Air Canada 則因客服聊天機器人提供不實票務資訊,遭法院裁定須賠償旅客損失。
從歧視到假作者 AI 監管問題持續擴大
更早之前,補教業者 iTutor Group 就曾被揭露其 以 AI 為基礎的招募篩選系統,在自動化流程中出現年齡排除情形,後續與美國平等就業機會委員會(EEOC)達成和解;《Sports Illustrated》亦因內容合作流程中涉及 AI 生成作者與照片 的疑慮,引發新聞專業與倫理討論。
多起案例顯示,AI 並非單純的效率工具,其設計、訓練與部署方式,仍高度仰賴人類價值判斷與制度約束。專家指出,企業在追求自動化與規模化的同時,仍需保留人為監督、透明機制與風險評估,否則「錯一次,代價可能難以回收」。
