使用 MATLAB 和 Simulink,您可以设计、仿真、测试、验证和部署 AI 算法,以增强复杂嵌入式系统的性能和功能。
使用 MATLAB 和 Simulink 部署嵌入式 AI
了解如何准备 AI 模型并自动生成代码,以将嵌入式 AI 应用部署到 CPU、GPU、FPGA 等。浏览教程、示例和视频,获取关于使用 MATLAB 和 Simulink 开发嵌入式 AI 的实用建议。

部署到 CPU 和微控制器
使用 MATLAB Coder 和 Simulink Coder 通过经训练的机器学习和深度学习模型生成可移植的优化 C/C++ 代码。

部署到 GPU
使用 GPU Coder 为经过训练的深度学习网络生成优化的 CUDA® 代码,以部署到桌面、服务器和嵌入式 GPU。

部署到 FPGA 和 SoC
使用 Deep Learning HDL Toolbox 在 FPGA 和 SoC 上进行深度学习网络的原型构建和实现。使用 HDL Coder 生成自定义深度学习处理器 IP 核和比特流。

AI 模型压缩
使用量化、投影或剪枝来压缩深度神经网络,以减少内存占用并提高推断性能。