DeepSeek-R1 模型现已在亚马逊云科技上推出
在刚刚过去的 Amazon re:Invent 期间,Amazon 首席执行官 Andy Jassy 分享了从 Amazon 自己在全公司开发近 1000 个生成式 AI 应用程序的经验中汲取的宝贵经验。从这种广泛的 AI 部署中,Jassy 提供了三个关键观察结果,这些观察结果塑造了 Amazon 的企业 AI 实施方法。首先,随着您开始扩展生成式 AI 应用程序,计算成本真的很重要。人们非常渴望更好的性价比。第二个实际上很难构建一个真正好的生成式 AI 应用程序。第三个是当我们让建造者自由选择他们想要做的事情时,所使用的模型的多样性。这并不让我们感到惊讶,因为我们一遍又一遍地学习同样的教训,那就是永远不会有一种工具来统治世界。
正如 Andy 所强调的那样,Amazon 提供的广泛而深入的模型使客户能够选择最能满足其独特需求的精确功能。通过密切监控客户需求和技术进步,亚马逊云科技 会定期扩展我们精选的模型选择,以包括有前途的新模型以及公认的行业热门模型。这种高性能和差异化模型产品的持续扩展有助于客户保持在 AI 创新的前沿。这让我们想到了中国的 AI 初创公司 DeepSeek。DeepSeek 于 2024 年 12 月推出了 DeepSeek-V3,随后于 2025 年 1 月 20 日发布了 DeepSeek-R1、6710 亿个参数的 DeepSeek-R1-Zero 和 1.5-700 亿个参数的 DeepSeek-R1-Distill 模型。他们于 2025 年 1 月 27 日添加了基于视觉的 Janus-Pro-7B 模型。这些型号是公开可用的,据报道比同类型号便宜 90-95%。根据 Deepseek 的说法,他们的模型因其推理能力而脱颖而出,这是通过强化学习等创新训练技术实现的。
现在,您现在可以在 Amazon Bedrock 和 Amazon SageMaker AI 中部署 DeepSeek-R1 模型。Amazon Bedrock 最适合寻求通过 API 快速集成预先训练的基础模型的团队。Amazon SageMaker AI 非常适合需要高级自定义、培训和部署并访问底层基础设施的组织。此外,您还可以使用 Amazon Trainium 和 Amazon Inferentia 通过 Amazon Elastic Compute Cloud (Amazon EC2) 或 Amazon SageMaker AI 经济高效地部署 DeepSeek-R1-Distill 模型。借助亚马逊云科技,您可以使用 DeepSeek-R1 模型来构建、试验和负责任地扩展您的生成式 AI 创意,方法是使用这种功能强大、经济高效的模型,同时只需最少的基础设施投资。您还可以通过在专为安全而设计的亚马逊云科技服务上进行构建,自信地推动生成式 AI 创新。我们强烈建议您将 DeepSeek-R1 模型的部署与 Amazon Bedrock 护栏集成,为您的生成式 AI 应用程序增加一层保护,Amazon Bedrock 和 Amazon SageMaker AI 客户都可以使用。
DeepSeek-R1 模型现已在亚马逊云科技上推出,另外亚马逊云科技提供众多免费云产品可以访问:亚马逊云科技体验
现在,您可以通过以下几种方式选择如何在亚马逊云科技上部署 DeepSeek-R1 模型:
- 用于 DeepSeek-R1 模型的 Amazon Bedrock Marketplace
- 用于 DeepSeek-R1 模型的 Amazon SageMaker JumpStart
- 用于 DeepSeek-R1-Distill 模型的 Amazon Bedrock 自定义模型导入,以及用于 DeepSeek-R1-Distill 模型的
- Amazon EC2 Trn1 实例
让我向您介绍在亚马逊云科技上开始使用 DeepSeek-R1 模型的各种路径。无论您是构建第一个 AI 应用程序还是扩展现有解决方案,这些方法都可以根据您团队的专业知识和要求提供灵活的起点。
Amazon Bedrock Marketplace 中的 DeepSeek-R1 模型 Amazon Bedrock Marketplace 提供 100 多种流行的、新兴的和专业的 FM,以及 Amazon Bedrock 中当前选择的行业领先模型。您可以轻松发现单个目录中的模型,订阅模型,然后在托管终端节点上部署模型。要在 Amazon Bedrock Marketplace 中访问 DeepSeek-R1 模型,请转到 Amazon Bedrock 控制台,然后在 Foundation models (基础模型) 部分下选择 Model catalog(模型目录)。您可以通过按模型提供程序进行搜索或筛选来快速找到 DeepSeek(亚马逊云科技体验)。
在查看包含模型功能和实施指南的模型详细信息页面后,您可以通过提供终端节点名称、选择实例数量和选择实例类型来直接部署模型。
您还可以配置高级选项,以便自定义 DeepSeek-R1 模型的安全性和基础设施设置,包括 VPC 联网、服务角色权限和加密设置。对于生产部署,您应该查看这些设置以符合您组织的安全性和合规性要求。
借助 Amazon Bedrock Guardrails,您可以独立评估用户输入和模型输出。您可以通过过滤生成式 AI 应用程序中的不需要和有害的内容,使用您定义的策略集来控制用户与 DeepSeek-R1 之间的交互。Amazon Bedrock Marketplace 中的 DeepSeek-R1 模型只能与 Bedrock 的 ApplyGuardrail API 一起使用,以评估 Amazon Bedrock 外部可用的自定义和第三方 FM 的用户输入和模型响应。要了解更多信息,请阅读使用 Amazon Bedrock Guardrails 实施独立于模型的安全措施。
Amazon Bedrock Guardrails 还可以与其他 Bedrock 工具(包括 Amazon Bedrock 代理和 Amazon Bedrock 知识库)集成,以构建更安全、更可靠的生成式 AI 应用程序,并符合负责任的 AI 策略。要了解更多信息,请访问亚马逊云科技负责任的 AI 页面(亚马逊云科技体验)。更新于 2 月 1 日 – 您可以使用 Bedrock Playground 来了解模型如何响应各种输入,并让您微调提示以获得最佳结果。
当将 DeepSeek-R1 模型与 Bedrock 的 playground 或 API 一起使用时,请使用 DeepSeek 的聊天模板以获得最佳结果。
InvokeModel<|begin_of_sentence|><|User|>content for inference<|Assistant|>
请参阅此分步指南,了解如何在 Amazon Bedrock Marketplace 中部署 DeepSeek-R1 模型。要了解更多信息,请访问在 Amazon Bedrock Marketplace 中部署模型。
Amazon SageMaker JumpStart 中的 DeepSeek-R1 模型Amazon SageMaker JumpStart 是一个机器学习 (ML) 中心,具有 FM、内置算法和预构建的 ML 解决方案,只需单击几下即可部署。要在 SageMaker JumpStart 中部署 DeepSeek-R1,您可以在 SageMaker Unified Studio、SageMaker Studio、SageMaker AI 控制台中或通过 SageMaker Python 开发工具包以编程方式发现 DeepSeek-R1 模型。在 Amazon SageMaker AI 控制台中,打开 SageMaker Studio,然后选择 JumpStart,然后在 All public models(所有公有模型)页面中搜索"DeepSeek-R1"。
您可以选择模型,然后选择 deploy (部署) 以创建具有默认设置的终端节点。当终端节点进入 InService 时,您可以通过向其终端节点发送请求来进行推理。
您可以使用 Amazon SageMaker AI 功能(如 Amazon SageMaker Pipelines、Amazon SageMaker Debugger 或容器日志)来派生模型性能和 ML作控制。该模型部署在亚马逊云科技安全环境中,并受您的 Virtual Private Cloud (VPC) 控制,有助于支持数据安全,与 Bedrock Marketpalce 一样,可以使用 SageMaker JumpStart 中的 API 将生成式 AI 应用程序的保护措施与 DeepSeek-R1 模型分离。现在,您可以在不调用 FM 的情况下使用护栏,这为将标准化和经过全面测试的企业保护措施更多地集成到您的应用程序流中打开了大门,而不管使用何种模型。ApplyGuardrail 请参阅此分步指南,了解如何在 Amazon SageMaker JumpStart 中部署 DeepSeek-R1 模型。要了解更多信息,请访问在 SageMaker Unified Studio 中发现 SageMaker JumpStart 模型或在 SageMaker Studio 中部署 SageMaker JumpStart 模型。
使用 Amazon Bedrock 自定义模型导入的 DeepSeek-R1-Distill 模型Amazon Bedrock 自定义模型导入能够通过单个无服务器统一 API 导入自定义模型以及现有 FM 并使用自定义模型,而无需管理底层基础设施。使用 Amazon Bedrock 自定义模型导入,您可以导入 1.5-700 亿个参数的 DeepSeek-R1-Distill 模型。正如我在关于 Amazon Bedrock 模型蒸馏的博客文章中强调的那样,蒸馏过程涉及训练更小、更高效的模型,以模拟具有 6710 亿个参数的大型 DeepSeek-R1 模型的行为和推理模式,将其用作教师模型。将这些公开可用的模型存储在 Amazon Simple Storage Service (Amazon S3) 存储桶或 Amazon SageMaker Model Registry 中后,转到 Amazon Bedrock 控制台中基础模型下的导入模型,然后通过 Amazon Bedrock 将它们导入并部署到完全托管的无服务器环境中。这种无服务器方法消除了对基础设施管理的需求,同时提供了企业级的安全性和可扩展性。
更新于 2 月 1 日 – 导入提炼模型后,可以使用 Bedrock Playground 来了解输入的提炼模型响应。
了解如何在 Bedrock Playground 中导入模型和推理,请参阅此分步指南,了解如何使用 Amazon Bedrock 自定义模型导入部署 DeepSeek-R1-Distill 模型。要了解更多信息,请访问将自定义模型导入 Amazon Bedrock。使用 Amazon Trainium 和 Amazon Inferentia 的 DeepSeek-R1-Distill 模型Amazon Deep Learning AMI (DLAMI) 提供自定义的系统映像,您可以使用这些映像在各种 Amazon EC2 实例中进行深度学习,从小型纯 CPU 实例到最新的高性能多 GPU 实例。您可以在 Amazon Trainuim1 或 Amazon Inferentia2 实例上部署 DeepSeek-R1-Distill 模型,以获得最佳性价比。要开始使用,请转到 Amazon EC2 控制台,然后使用名为 Deep Learning AMI Neuron (Ubuntu 22.04) 的 Neuron 多框架 DLAMI 启动一个 EC2 实例。trn1.32xlarge。
连接到启动的 ec2 实例后,安装 vLLM,这是一个用于提供大型语言模型 (LLM) 的开源工具,并从 Hugging Face 下载 DeepSeek-R1-Distill 模型。您可以使用 vLLM 部署模型并调用模型服务器。要了解更多信息,请参阅此分步指南,了解如何在 Amazon Inferentia 和 Trainium 上部署 DeepSeek-R1-Distill Llama 模型。您还可以在 Hugging Face 上访问 DeepSeek-R1-Distill 模型卡片,例如DeepSeek-R1-Distill-Llama-8B 或 deepseek-ai/DeepSeek-R1-Distill-Llama-70B。选择 Deploy (部署),然后选择 Amazon SageMaker。从 Amazon Inferentia 和 Trainium 选项卡中,复制部署 DeepSeek-R1-Distill 模型的示例代码。
自 DeepSeek-R1 发布以来,已经发布了针对 Amazon EC2 和 Amazon Elastic Kubernetes Service (Amazon EKS) 的各种部署指南。