▲Claude近期傳出重大內部資訊外洩事件。(圖/anthropic.com)
記者吳立言/綜合報導
由Anthropic公司開發的大型語言模型Claude近期傳出重大內部資訊外洩事件,有開發者在社群平台上公開Claude 3.7版本的「系統提示詞(system prompt)」,內容長達數千字,詳列了模型行為指引、語氣設定、安全準則與道德限制。這份資料原本應屬高度保密,卻意外揭示了當前生成式AI背後真正的控制機制,也讓「提示工程(Prompt Engineering)」重新成為關注焦點。
The Claude 3.7 system prompt has been leaked and it's a goldmine for prompting techniques! pic.twitter.com/wjncEvZZRI
— Carlos E. Perez (@IntuitMachine) May 11, 2025[廣告]請繼續往下閱讀...
洩漏的內容顯示,Claude並非單靠模型訓練自然產出高品質回應,而是在複雜、縝密設計的提示語指導下,實現類似人類的思考流程與語用邏輯。例如,文件中要求模型在回答前進行「多輪自我檢查」、避免引用無授權資訊、並在特定情境中表現出謙遜與尊重,這些「行為規範」其實都透過提示語硬性框架設定。
事件曝光後,引發業界熱議。有開發者指出,這份prompt架構近似一套「AI 劇本」,所有語言反應皆是經過設計的劇情回饋,而非機器自發理解。甚至有AI工程師直言,「這證明了真正的技術力,不在模型本身,而在提示語架構的設計。」此一現象也進一步引發外界對其他高階工具(如開發輔助工具Cursor、產品原型生成平台Windsurf等)的關注。這些工具能生成完整程式碼或互動內容,極可能採用比Claude更深層的「提示連結(prompt chain)」與任務導向的指令堆疊技術,成為真正隱形的智慧核心。
過去一年,隨著微調技術(fine-tuning)、API外掛擴展(plugins)盛行,一度有人認為提示工程將被淘汰。然而此次事件無疑讓這個觀點被徹底推翻。事實上,在大多數應用場景中,精準提示語設計仍是提升AI回應品質的關鍵要素,亦是許多AI產品差異化競爭的核心。
網友也指出,這次Claude提示詞洩漏就如同當年Google搜尋演算法被外洩一樣,不只是單一事件,而是揭開整個產業運作邏輯的關鍵一角。未來不論是在教育、軟體開發或內容產業,提示詞工程師(prompt engineer)恐將再次成為搶手職缺。
目前Anthropic尚未就該文件真偽做出正式回應。不過業界普遍相信,即便此份提示語並非最終版本,也已展現了大型語言模型背後人類設計邏輯的深度與複雜性。