本單元主要聚焦於大型語言模型的安全性與合規性應對,特別是深入探討「提示詞注入攻擊」(Prompt Injection)這一風險。本單元將提示詞注入解釋為對AI進行的「社交工程」,攻擊者利用惡意指令誘導模型忽略系統規則、洩露敏感資訊或執行錯誤操作。內容不僅區分了直接注入與間接注入的攻擊類型及其棘手之處,還提出了多層次防禦思維,涵蓋強化系統提示以確立優先權、限制工具權限以防範系統被當作跳板,以及透過學員教育來提升整體警覺性。最後,該單元旨在將學員轉變為具備「AI安全思維」的守門員,學會在追求輸出效果的同時,兼顧穩定與防護。