大语言模型的安全问题探究

提示攻击是一种利用 LLM 漏洞的攻击方式,通过操纵输入或提示来实现。与传统黑客攻击(通常利用软件漏洞)不同,提示攻击依赖于精心设计的提示,欺骗LLM执行非预期的操作。提示攻击主要分为三种类型:提示注入、提示泄露和越狱。随着大语言模型的广泛应用,安全必定是一个非常值得关注的领域,下面这篇文章对当前已知的攻击方式进行梳理,希望对大家的工程落地有一定帮助!

阅读更多

ChatGPT 之 Prompt学习

在 LLM 工程中,prompt 指的是生成文本的输入,它通常是一个问题、一个话题或者一个指令。用户可以通过输入 prompt 来告诉 LLM 模型需要生成的文本类型,LLM 模型则会根据 prompt 和已有的训练数据来生成相应的文本响应,实际使用中高质量的 prompt 会达到事半功倍的效果。

阅读更多