北京大学第四弹:《DeepSeek原理和落地应用》

发布于:2025-03-06 ⋅ 阅读:(14) ⋅ 点赞:(0)

大家好,我是吾鳴。

之前吾鳴分享过北京大学出版的三分教程,它们分别是:

《DeepSeek与AIGC应用》

《DeepSeek提示词工程和落地场景》

《DeepSeek-R1及类强推理模型开发解读》

今天吾鳴要给大家分享由北京大学出版的第四份教程——《DeepSeek原理和落地应用》,教程一共57页PPT,文末有完整版下载地址。

内容摘要

人工智能概念辨析
该部分系统梳理了人工智能的核心概念与技术发展。首先界定多模态(文本、图像、音频、视频)与AI工具(如DeepSeek、豆包、通义千问等),区分通用模型(大语言模型、视觉模型、多模态模型)与行业模型(教育、医疗等垂直领域)。从历史维度分析大模型的发展阶段,包括准备期(ChatGPT、GPT-4推动共识)、跃进期(开源生态爆发)、繁荣期(多模态与推理模型兴起)和深化期(强化学习突破)。最后对比生成模型(如GPT-4o,侧重多模态生成)与推理模型(如OpenAI o1,专注逻辑与数学任务)的特性,涵盖模型定位、能力差异及应用场景。

DeepSeek R1
聚焦DeepSeek公司的技术布局与模型特性。公司由幻方量化孵化,专注于大语言模型研发,2025年推出推理模型R1。模型系列包括生成模型(V3,通用性强)与推理模型(R1,擅长复杂逻辑任务),通过架构优化显著降低成本(训练成本557万,推理成本降低83%)。技术优势包括开源生态(全量代码与工具开放)、国产自主(缩短与海外代差至3-5个月)及性能对标国际顶尖(如GPT-4、Claude)。R1支持思维链可视化、多模态推理,并通过蒸馏技术适配不同规模需求,提供本地部署与第三方平台接入方案。

大模型原理
解析GPT与DeepSeek-R1的核心机制。GPT基于Transformer架构,通过预训练(海量数据如维基百科、GitHub)、自监督学习与强化学习生成文本,依赖自回归预测逐词输出,但存在幻觉与上下文限制。DeepSeek-R1作为推理模型,结合思维链(分步逻辑推理)、强化学习(自我优化)与模型蒸馏(压缩模型规模),提升复杂任务处理能力。技术突破包括混合专家(MoE)、FP8混合精度训练等,适配昇腾、英伟达等硬件,满血版需高算力支持(如NV H800集群)。

落地应用
详述DeepSeek在多个领域的实践策略。教育场景涵盖教学设计、作业批改、论文辅助(选题、文献综述、润色)及医学诊断模拟;学术研究支持文献速读、数据分析与学术辩论;知识付费涉及课程设计、直播脚本与社群运营。核心提示词技巧包括“真诚直接”“通用公式”“反向PUA”“激发深度思考”等,通过优化交互逻辑提升任务效率。商业应用强调低成本接入(API定价为行业1/10)、开源生态共建与国产化解决方案,推动AI普惠化与行业智能化升级。

精彩内容

PPT无套路下载地址:夸克网盘分享