针对大语言模型的各种提示词攻击方式,包括提示词注入、提示词泄露和提示词越狱,大家用过哪些呢?
这个是我写的一些攻击示例,有些能在 GPT-3.5 上复现,但没有一个能在 GPT-4 上有效。 有没有针对 GPT-4 生效的提示词攻击,欢迎分享交流
提示词攻击:绕过 ChatGPT 的安全审查