DeepSeek的安全挑战和安全控制措施

发布于:2025-02-26 ⋅ 阅读:(13) ⋅ 点赞:(0)

本研究探讨了与 DeepSeek 相关的安全风险,为安全和风险管理领导者提供了有针对性的策略来缓解这些威胁,并提供了可行的措施来加强基于现有安全控制的 AI 保护。
 

主要发现

  • 了解 DeepSeek 当前的安全状况。DeepSeek的采用激增暴露了关键的安全挑战,包括模型漏洞、数据泄露风险和针对基础设施的针对性攻击。这些问题凸显了组织采用基于 DeepSeek 部署模式的定制安全策略的紧迫性。
  • 监控和控制对 DeepSeek 平台的直接访问。由于 DeepSeek 的安全管理存在不确定性和问题,Gartner 不建议在涉及敏感业务数据或个人信息的情况下直接使用 DeepSeek 应用程序和开发者平台
  • 支持可靠的云服务提供商 (CSP) 提供的模型即服务。当组织缺乏内部人才和技能来保障 AI 的使用时,请利用云服务提供商。这需要共享责任模型。
  • 仅在满足特定条件时才选择私人托管。考虑私人托管的安全优势,但要准备实施额外的安全和隐私控制,并与基础设施和运营 (I&O) 以及应用程序团队合作,评估基础设施和运营挑战。

详细分析

这项研究进一步探讨了考虑使用 DeepSeek 的组织可能面临的安全问题,并提供了不同部署模式下的建议。

DeepSeek 面临的安全威胁与其他大型语言模型 (LLM) 相同。然而,LLM 的常见AI 安全控制并不是本文档的重点。图 1 说明了与 GenAI 应用程序相关的主要安全威胁和风险 (STR)。

图 1:生成式人工智能应用面临的主要安全威胁和风险

采用量身定制的安全策略

采用量身定制的安全策略来解决模糊的 DeepSeek 安全措施

目前关于 DeepSeek 的讨论往往集中在三种部署方法上:

  • 其网络和移动聊天应用程序。普通用户可以通过在网络应用程序上注册或下载移动应用程序来访问 DeepSeek 的产品。
  • 其开发平台允许通过在DeepSeek 开发者平台上注册和购买 API 密钥将 DeepSeek 自己的后端模型集成到客户组织的应用程序中。 
  • 开源模型本身,其中DeepSeek-R1最受欢迎。

DeepSeek 为其网页和移动应用程序指定了隐私政策 ,表明数据处理和记录在中国进行,公司可能会使用数据进行模型训练。使用 DeepSeek 开发平台时可能也会出现同样的情况。DeepSeek还已向国家网信办 (CAC ) 完成了中国人工智能监管备案。

然而,DeepSeek 尚未披露其对模型、数据和应用程序保护的具体控制。自 2025 年 1 月采用激增以来,它遇到了以下安全挑战:

  • 威胁研究实验室和监管机构已经发现了DeepSeek模型的漏洞。
  • 2025年1月,DeepSeek Web和移动应用程序遭受了一次峰值高达3.2Tbps的分布式拒绝服务(DDoS)攻击,导致DeepSeek网站瘫痪了48小时。最初的防御系统未能有效过滤异常流量。
  • 市场上冒充 DeepSeek 的网站数量激增。2024 年 12 月 1 日至 2025 年 2 月 3 日期间,共有 2,650 个冒充 DeepSeek 的域名出现。

DeepSeek-R1 的一个特点是其可见且扩展的思维链 (CoT),可以彻底解释其推理过程。目前,CoT 的具体安全风险尚不清楚,但已知的风险包括:

  • CoT可能包含模型内部工作机制或者在微调或检索过程中的敏感数据,这将带来数据泄露的风险。
  • 攻击者可以通过误导某一步骤或在 CoT 中植入抢先的答案攻击来产生恶意输出。虽然这种安全威胁适用于所有的 CoT,但是 DeekSeek-R1 提供的可见的分步解释更容易导致过度依赖,从而降低用户的警惕性,使其接受看似“合理”但实际上恶意的结果。

在中国境外开展业务的组织还应注意意大利、美国、澳大利亚和韩国等国禁止使用DeepSeek应用程序的法规的不确定性。 

Gartner 认为 DeepSeek 是一家不以短期盈利为优先的公司。它从研究的角度支持工程师,并且不会面临实现财务或业务收益的重大压力。因此,DeepSeek 可能缺乏动力为其应用程序全面实施企业级安全控制。

明智地选择具有定制且强大的安全措施的 DeepSeek 部署选项。

组织可以通过多种途径访问 DeepSeek 的 AI 模型和服务,以满足不同的需求和技术能力(见表 1)。后续章节将探讨三种部署方法及其相关的安全采用建议。

表1 :DeepSeek 的采用选项

部署选项

描述

建议

直接访问   DeepSeek 应用程序和平台

使用   DeepSeek 的官方网络和移动应用程序,或通过在 DeepSeek 开发者平台上注册和购买 API 密钥通过 DeepSeek API 进行集成。

由于目前DeepSeek应用程序和开发者平台的安全控制对外界并不透明,因此Gartner不建议将其直接用于商业目的。

来自 CSP 的模型即服务

DeepSeek 模型越来越多地通过主要云平台提供,提供可扩展、可管理且适用于企业的解决方案。目前提供这些解决方案的 CSP 包括阿里云AWS 谷歌云、华为云、微软云、Nvidia腾讯云。        

对于无法承担私人托管费用或没有成熟的安全能力来保护 LLM 的组织来说,这是首选方案。

DeepSeek 模型的私有部署

组织可以在自己的基础设施上(本地或私有云环境中)部署 DeepSeek 模型。

此选项提供完整的数据主权,适用于合规敏感型行业。

来源:Gartner(2025 年 2 月)

监控和控制

监控和控制对DeepSeek 应用程序的直接访问以及其开发者平台上的集成

Gartner 建议,除非获得特别批准,否则不要在涉及敏感业务数据或个人信息的情况下直接使用 DeepSeek。这包括员工采用应用程序以及与业务应用程序的 API 集成。

为了防止未经授权使用 DeepSeek 及相关风险:

  • 加强人工智能治理:

o   审查现有的发现和库存机制,以确保它们能够检测到 DeepSeek 的潜在“影子 AI”。

o   利用 API 监控、Web 代理、SIEM、端点和移动管理工具或专门的 AI 使用控制工具。

o   对于 DeepSeek 应用程序的批准使用,要求员工在每次会话结束后清除聊天记录。

  • 防御网络钓鱼攻击:

o   向员工宣传利用 DeepSeek 的流行度并链接到假冒 DeepSeek 模型或应用程序的网络钓鱼威胁。

o   实施网络监控、DNS 过滤和明确的报告机制,以降低成为网络钓鱼攻击受害者的风险。

  • 减轻第三方风险:

o   要求可能开始使用 DeepSeek 模型和应用程序的第三方提供商保持透明度。

  • 预测并应对法律风险:

o   与法律和合规专家合作,确保您在使用 DeepSeek 时不会违反当地法规。

支持 CSP 提供的安全模型即服务

主要的 CSP 已集成 DeepSeek 的 V3 和 R1 模型并提供模型即服务。Gartner 强烈建议组织将其生成式 AI 应用程序与这些 CSP 的模型集成,并启用 CSP 提供的安全功能以增加一层保护。这些关键功能通常包括反 DDoS、底层基础设施的补丁管理、容器运行时安全、静态和传输中的数据加密、身份和访问管理、安全连接选项以及各种合规性认证。

使用模型即服务的建议:

  • 启用云安全功能:

o   利用 CSP 提供的安全控制,并根据组织的特定合规性和安全性需求自定义设置。

o   使用云访问安全代理 (CASB) 或类似工具来监控和控制数据流。要求 CSP 提供其数据安全控制和审计日志的详细信息。

  • 管理第三方风险:

o   在使用 CSP 提供的 DeepSeek 模型之前,要求透明度并进行彻底的安全评估。

o   进行红队演习来测试模型对常见攻击的抵御能力,或请求第三方安全评估结果。

  • 分担责任并实施用户控制:

o   了解模型即服务的共享责任。例如,在通过微调 API 上传微调数据之前,将云存储桶配置为不可公开访问。

o   实施用户控制,例如对数据和应用程序的访问控制、多因素身份验证、工作负载的安全补丁以及威胁检测和响应。

  • 处理安全事故:

o   制定事件响应计划或审查当前计划,为与 DeepSeek 模型即服务相关的数据泄露和服务中断做好准备。

什么情况下使用私人托管

仅当公有云服务受到限制时才选择私人托管

DeepSeek 的开源方式和成本节约使私人托管比以往任何时候都更加可行。然而,大多数组织缺乏专门的 AI 运营团队和 AI 安全知识。一项行业估计称,在运行LLM 的6,449 台活跃服务器中,88.9%没有任何安全措施。这可能导致计算能力被盗、数据泄露、服务中断和大型模型文件被删除等风险。

私有托管仅在组织在使用公有云服务受到限制的情况下才是一种选择。选择私有部署 DeepSeek 模型的组织应确保他们全面了解保护这些模型所需的安全措施。拥有一支专门的专业安全团队、全面的安全控制和可控的长期安全运营成本至关重要。

DeepSeek 私域托管建议:

  • 应用人工智能信任、风险和安全管理(AI TRiSM):

o   确保全面覆盖人工智能风险和安全挑战。

o   始终从受信任且经过验证的存储库获取 DeepSeek 模型并执行完整性检查。保持严格的版本控制并监控公开的漏洞报告。

  • 执行安全实践和控制:

o   应用加密、多因素身份验证、数据匿名化和应用程序安全测试。

o   实施基于域的部署、零信任架构和最小特权权限,以防止数据泄露。

  • 建立人工智能安全能力和具体控制:

o   投资建立人工智能和机器学习安全专业知识,或与专业的网络安全公司建立合作伙伴关系,提供持续的安全服务。

o   使用红队测试数据集模拟恶意对抗攻击场景,增强模型识别和过滤有害内容的能力。

  • 监控并保护 CoT:

o   对CoT输出的每个步骤进行内容评估和过滤(例如隐私信息,关键字,逻辑谬误)。

o   根据用户角色动态控制CoT的展示深度,例如普通业务用户只能看到结论或者有限的CoT内容,而业务审计功能可以查看完整的CoT逻辑。


网站公告

今日签到

点亮在社区的每一天
去签到