深度学习

MATLAB 和 Simulink 在嵌入式 AI 中的应用

将机器学习和深度学习应用部署到嵌入式系统

使用 MATLAB 和 Simulink,您可以设计、仿真、测试、验证和部署 AI 算法,以增强复杂嵌入式系统的性能和功能。

嵌入式 AI 工作流图。

使用 MATLAB 和 Simulink 部署嵌入式 AI

了解如何准备 AI 模型并自动生成代码,以将嵌入式 AI 应用部署到 CPU、GPU、FPGA 等。浏览教程、示例和视频,获取关于使用 MATLAB 和 Simulink 开发嵌入式 AI 的实用建议。

Simulink 中的 C/C++ 代码部署到 NVIDIA 桌面和嵌入式 GPU 的示意图。

部署到 GPU

使用 GPU Coder 为经过训练的深度学习网络生成优化的 CUDA® 代码,以部署到桌面、服务器和嵌入式 GPU。

Running FPGA-based deep learning inference on prototype hardware from MATLAB, then generating a deep learning HDL IP core for deployment on any FPGA or ASIC.

Deploy to FPGAs and SoCs

Prototype and implement deep learning networks on FPGAs and SoCs with Deep Learning HDL Toolbox. Generate custom deep learning processor IP cores and bitstreams with HDL Coder.

Screenshot of a layered graph, calibration statistics, and validation results to optimize AI models for embedded deployment.

AI Model Compression

Compress deep neural networks with quantization, projection, or pruning to reduce memory footprint and increase inference performance.

使用 MATLAB 在原型硬件上运行基于 FPGA 的深度学习推断,随后生成深度学习 HDL IP 核,以在任意 FPGA 或 ASIC 上进行部署。

部署到 FPGA 和 SoC

使用 Deep Learning HDL Toolbox 在 FPGA 和 SoC 上进行深度学习网络的原型构建和实现。使用 HDL Coder 生成自定义深度学习处理器 IP 核和比特流。

Diagram of verification and validation for AI.

AI Verification

AI verification applies rigorous methods like the W-shaped process to ensure intended behaviors and prevent unintended ones.

深度网络量化器中用于优化嵌入式部署的 AI 模型的层图、标定统计量和验证结果截图。

AI 模型压缩

使用量化、投影或剪枝来压缩深度神经网络,以减少内存占用并提高推断性能。