MATLAB 2024b深度学习新特性全面解析与DeepSeek大模型集成开发

发布于:2025-03-28 ⋅ 阅读:(33) ⋅ 点赞:(0)

MATLAB 2024b深度学习工具箱通过架构创新与功能强化,为科研创新和行业应用提供了全栈式解决方案。
 

第一:MATLAB 2024b深度学习工具箱新特性

1、MATLAB Deep Learning Toolbox

2、实时脚本(Live Script)与交互控件(Control)功能

3、批量大数据导入及Datastore类函数功能

4、数据清洗(Data Cleaning)功能

5、深度网络设计器(Deep Network Designer)功能

6、实验管理器(Experiment Manager)功能

7、MATLAB Deep Learning Model Hub

8、MATLAB与TensorFlow、PyTorch等深度学习框架协同工作功能

9、MATLAB Deep Learning Toolbox Examples

第二:卷积神经网络(Convolutional Neural Network, CNN)

1、深度学习与传统机器学习的区别与联系

2、卷积神经网络的基本原理

3、LeNet、AlexNet、Vgg-16/19、GoogLeNet、ResNet等经典深度神经网络的区别与联系

4、预训练模型(Alexnet、Vgg-16/19、GoogLeNet、ResNet等)的下载与安装

5、优化算法(梯度下降、随机梯度下降、小批量随机梯度下降、动量法、Adam等)

6、调参技巧(参数初始化、数据预处理、数据扩增、批量归一化、超参数优化、网络正则化等)

7、(1)CNN预训练模型实现物体识别;(2)利用卷积神经网络抽取抽象特征;(3)自定义卷积神经网络拓扑结构;(4)1D CNN模型解决回归拟合预测问题

第三:模型可解释性与特征可视化Model Explanation and Feature Visualization

1、什么是模型可解释性?为什么要对CNN模型进行解释?

2、常用的可视化方法有哪些(特征图可视化、卷积核可视化、类别激活可视化等)?

3、CAM(Class Activation Mapping)、GRAD-CAM、LIME(Local Interpretable Model-agnostic Explanation)、t-SNE等方法原理

4、基于CAM/Grad-CAM的卷积神经网络模型的特征可视化

第四:迁移学习算法(Transfer Learning)

1、迁移学习算法的基本原理

2、基于深度神经网络模型的迁移学习算法

3、基于Alexnet预训练模型的模型迁移

第五:循环神经网络与长短时记忆神经网络(RNN & LSTM)

1、循环神经网络(RNN)与长短时记忆神经网络(LSTM)的基本原理

2、RNN与LSTM的区别与联系

3、(1)时间序列预测;(2)序列-序列分类

第六:时间卷积网络(Temporal Convolutional Network, TCN)

1、时间卷积网络(TCN)的基本原理

2、TCN与1D CNN、LSTM的区别与联系

3、(1)时间序列预测:新冠肺炎疫情预测;(2)序列-序列分类:人体动作识别

第七:生成式对抗网络(Generative Adversarial Network)

1、生成式对抗网络GAN

2、向日葵花图像的自动生成

第八:自编码器(AutoEncoder)

1、自编码器的组成及基本工作原理

2、经典自编码器

3、基于自编码器的图像分类

第九:目标检测YOLO模型

1、什么是目标检测?目标检测与目标识别的区别与联系?YOLO模型的工作原理(从传统目标检测到基于深度学习的目标检测、从“两步法”的R-CNN到“一步法”的YOLO、YOLO模型的演化历史)

2、(1)标注工具Image Labeler功能简介与演示;(2)使用预训练模型实现图像、视频等实时目标检测;(3)训练自己的数据集:新冠疫情佩戴口罩识别

第十:图像语义分割U-Net模型

1、语义分割(Semantic Segmentation)

2、U-Net模型的基本原理

3、基于U-Net的多光谱图像语义分割

第十一:注意力机制(Attention)

1、注意力机制的背景和动机。

2、注意力机制的基本原理

3、注意力机制的主要类型:键值对注意力机制(Key-Value Attention)、自注意力(Self-Attention)与多头注意力(Multi-Head Attention)、Soft Attention 与 Hard Attention、全局(Global)与局部(Local)注意力

4、注意力机制的优化与变体:稀疏注意力(Sparse Attention)、自适应注意力(Adaptive Attention)、动态注意力机制(Dynamic Attention)、跨模态注意力机制(Cross-Modal Attention)

5、(1)基于注意力机制的Seq-to-Seq翻译;(2)基于注意力机制的图像描述 

第十二:Transformer模型及其在NLP和CV领域的应用

1、Transformer模型的提出背景

2、Transformer模型的进化之路

3、Transformer模型拓扑结构

4、Transformer模型工作原理

5、BERT模型的工作原理

6、GPT系列模型

7、ViT模型(提出的背景、基本架构、与传统CNN的比较、输入图像的分块处理、位置编码、Transformer编码器、分类头、ViT模型的训练与优化

8、(1)基于BERT模型的文本分类;(2)基于ViT模型的图像分类

第十三:物理信息神经网络(PINN)

1、PINN工作原理:物理定律与方程的数学表达、如何将物理定律嵌入到神经网络模型中?PINN的架构(输入层、隐含层、输出层的设计)、物理约束的形式化(如何将边界条件等物理知识融入网络?)损失函数的设计(数据驱动与物理驱动的损失项)

2、基于PINN的微分方程求解

第十四:图神经网络(GNN)

1、图神经网络的背景和基础知识

2、图的基本概念和表示

3、图神经网络的工作原理

4、图卷积网络(GCN)的工作原理。

5、图神经网络的变种和扩展:图注意力网络(GAT)、图同构网络(GIN)、图自编码器、图生成网络。

6、(1)基于图卷积神经网络的节点分类;(2)基于图神经网络的时间序列异常点检测

第十五:深度学习模型压缩(Compression)

1、深度学习模型压缩的常用方法

2、Deep Learning Toolbox Model Compression Library的安装与模型压缩

3、基于Deep Network Designer的模型压缩

第十六:MATLAB接入ChatGPT/DeepSeek等大语言模型

1、Ollama下载与安装

2、Large Language Models (LLMs) with MATLAB下载与安装

3、ChatGPT API Key配置与MATLAB接入ChatGPT对话

4、本地部署DeepSeek大语言模型与MATLAB接入DeepSeek对话