深度学习

MATLAB 和 Simulink 在嵌入式 AI 中的应用

将机器学习和深度学习应用部署到嵌入式系统

使用 MATLAB 和 Simulink,您可以设计、仿真、测试、验证和部署 AI 算法,以增强复杂嵌入式系统的性能和功能。

嵌入式 AI 工作流图。

使用 MATLAB 和 Simulink 部署嵌入式 AI

了解如何准备 AI 模型并自动生成代码,以将嵌入式 AI 应用部署到 CPU、GPU、FPGA 等。浏览教程、示例和视频,获取关于使用 MATLAB 和 Simulink 开发嵌入式 AI 的实用建议。

深度网络量化器中用于优化嵌入式部署的 AI 模型的层图、标定统计量和验证结果截图。

部署到 CPU 和微控制器

使用 MATLAB Coder 和 Simulink Coder 通过经训练的机器学习和深度学习模型生成可移植的优化 C/C++ 代码。

Simulink 中的 C/C++ 代码部署到 NVIDIA 桌面和嵌入式 GPU 的示意图。

部署到 GPU

使用 GPU Coder 为经过训练的深度学习网络生成优化的 CUDA® 代码,以部署到桌面、服务器和嵌入式 GPU。

使用 MATLAB 在原型硬件上运行基于 FPGA 的深度学习推断,随后生成深度学习 HDL IP 核,以在任意 FPGA 或 ASIC 上进行部署。

部署到 FPGA 和 SoC

使用 Deep Learning HDL Toolbox 在 FPGA 和 SoC 上进行深度学习网络的原型构建和实现。使用 HDL Coder 生成自定义深度学习处理器 IP 核和比特流。

深度网络量化器中用于优化嵌入式部署的 AI 模型的层图、标定统计量和验证结果截图。

AI 模型压缩

使用量化、投影或剪枝来压缩深度神经网络,以减少内存占用并提高推断性能。