摘要:
随着大型语言模型(LLM)的快速发展,许多下游的 NLP 任务在好的提示下都可以很好地解决。
尽管模型开发人员和研究人员在对话安全性方面努力工作以避免从 LLM 生成有害内容,但为了人类的利益而引导 AI 生成的内容 (AIGC) 仍然具有挑战性。 由于强大的 LLM 正在吞噬来自各个领域的现有文本数据(例如,GPT-3 是在 45TB 文本上训练的),因此很自然地怀疑私人信息是否包含在训练数据中以及这些 LLM 及其下游应用程序可以对哪些隐私威胁带来威胁。
在本文中,我们研究了 OpenAI 的模型 API 和由 ChatGPT 增强的 New Bing 带来的隐私威胁,并表明应用程序集成的 LLM 可能会导致比以往任何时候都更严重的隐私威胁。
为此,我们进行了大量实验来支持我们的主张并讨论 LLM 对隐私的影响