DeepSeek 隐私泄露?

发布于:2025-03-06 ⋅ 阅读:(14) ⋅ 点赞:(0)

大家好,我是钢板兽。

最近,一位社科专业的朋友问我:“如果把一些自己研究方向相关的涉密英文材料上传到 DeepSeek,让它帮忙提取文本并翻译,其他用户会不会通过拷打AI或其他方式获取这些材料的内容?”换句话说,像 DeepSeek 这样的 AI 平台,会不会悄悄地使用用户上传的数据来训练模型?

这个问题让我有点犯难。按常理来说,DeepSeek、ChatGPT 这些大模型平台应该会在服务器中为每位用户创建独立的存储空间,确保数据安全。但事实真的如此吗?

“你会收集我提供给你的材料进行训练吗?”

当我向 DeepSeek、ChatGPT 等 AI 平台询问这个问题时,得到的回答几乎一致:所有大模型都声称不会收集、存储或利用用户输入的数据进行训练。

听起来很安心,对吧?但现实真的如此简单吗?

DeepSeek的回答

ChatGPT的回答

事实上,在这些平台的用户协议和隐私政策中,我们能发现一些微妙的措辞。例如,部分平台会记录用户的交互信息,并以“优化模型、改善服务”为由保留这些数据,甚至可能在“匿名化”后用于训练。

也就是说,虽然 AI 平台不会直接把你的输入一字不落地“喂”给模型,但它们仍可能以其他方式利用你的数据来提升 AI 的表现。

以 DeepSeek 为例,它的隐私政策中写道:

“我们使用您的信息来改进和开发服务,并训练和改进我们的技术,例如我们的机器学习模型和算法……”

DeepSeek隐私政策

而 OpenAI 则更为直白地在隐私政策中写明:

“用户可以在设置中选择是否为未来的模型做出贡献。”

“临时聊天不会用于训练模型”

“默认情况下,不使用 API、ChatGPT Enterprise 和 ChatGPT Team 客户数据进行训练。”

OpenAI隐私政策

也就是说在默认设置的情况下,我们所上传的数据是会被OpenAI用于AI模型训练的,尤其是非API用户(比如免费版ChatGPT),我赶紧看了看自己的ChatGPT账户(plus套餐)设置,果然发现ChatGPT默认为我开启了“模型改进”的选项。

如果你现在去查看自己的 ChatGPT 设置,很可能也会发现这个选项是默认打开的

ChatGPT账户设置

这样看来,尽管所有AI 平台在明面上否认收集数据用于训练,但实际上用户输入的内容仍可能被存储并用于改善 AI 的表现。

除了 AI 平台可能会收集用户数据用于训练,在我们将数据上传到AI平台之后的一系列流程中都会有数据泄露的风险:

  • 数据传输过程中,用户输入的信息会通过互联网传输到云端进行计算,如果传输过程缺乏足够的加密保护,黑客有可能在数据流动过程中拦截你的信息。
  • 很多大模型平台都会暂存用户的输入记录,哪怕它们不会直接用这些数据训练模型。这些存储的数据如果被恶意攻击者获取,也可能会带来信息泄露风险。

如果你的输入涉及隐私或敏感信息,那么最安全的做法就是避免将这些数据上传到大模型平台!但如果你不得不使用 AI 处理相关内容,这里提供几点建议:

  • 在使用 AI 前,阅读该平台的隐私政策,了解它是否存储用户数据、是否会用于训练,以及是否提供数据删除选项。如果可以关闭“改进模型”功能,一定要关掉!
  • 如果数据涉及隐私,可以先删除敏感部分,用符号或代号代替真实信息,让 AI 处理后再手动补充。
  • 如果你的数据涉及公司或研究机密,最安全的方式是避免上传到云端 AI。可以选择本地化 AI 工具,比如 Llama、ChatGLM、DeepSeek 本地版等,都可以部署在自己的电脑或服务器上,这样数据完全不会上传到云端,极大降低了数据泄露的风险。

那么今天关于使用AI过程中数据泄露的内容就介绍到这里了,希望这篇文章可以帮到你。

阅读完这篇文章,你有什么想说的吗,你在使用AI工具的过程中又遇到什么问题吗?欢迎在评论区留言。