GPU Coder 从 MATLAB 代码和 Simulink 模型中生成优化的 CUDA® 代码。所生成的代码包含用于深度学习、嵌入式视觉以及雷达和信号处理算法的可并行部分的 CUDA 内核。生成的代码可以调用 NVIDIA® TensorRT® 以获得高性能。您可以将生成的 CUDA 代码作为源代码或静态/动态库集成到您的项目中,并针对现代 NVIDIA GPU 对其进行编译,包括那些嵌入在 NVIDIA Jetson™ 和 NVIDIA DRIVE™ 平台上的 GPU。您可以访问 Jetson 和 DRIVE 平台上的外设,并将手动编写的 CUDA 代码整合到生成的代码中。
GPU Coder 使您能够探查生成的 CUDA 代码以确定性能瓶颈和优化机会(使用 Embedded Coder)。双向链接支持您在 MATLAB 代码和生成的 CUDA 代码之间进行追溯。您可以通过软件在环 (SIL) 和处理器在环 (PIL) 测试来验证生成代码的数值行为。
从 MATLAB 生成 CUDA 代码
编译并在常见的 NVIDIA GPU 上运行从 MATLAB 算法生成的 CUDA 代码,无论是桌面端 RTX 卡、数据中心还是嵌入式 Jetson 和 DRIVE 平台。免费向您的客户部署免版权费的生成代码。
从 Simulink 生成 CUDA 代码
使用 Simulink Coder 和 GPU Coder 从您的 Simulink 模型生成 CUDA 代码,并将其部署到 NVIDIA GPU 上。使用 NVIDIA GPU 加速 Simulink 仿真的计算密集部分。
部署到 NVIDIA Jetson 和 DRIVE
GPU Coder 自动将生成的代码部署到 NVIDIA Jetson 和 DRIVE 平台上。访问外围设备、采集传感器数据并将您的算法连同外设接口代码一起部署到板上以便独立执行。
为深度学习生成代码
将各种预定义或自定义的深度学习网络部署到 NVIDIA GPU。除了经过训练的深度学习网络,您还可以同时为预处理和后处理生成代码,以部署完整的算法。
优化生成的代码
GPU Coder 自动应用内存管理、内核融合和自动调节等优化。通过生成 INT8 或 bfloat16 代码减少内存占用量。通过与 TensorRT 集成进一步提升性能。
记录信号、调节参数并验证代码行为
使用 GPU Coder 和 Simulink Coder 来记录信号并实时调节参数。添加 Embedded Coder 以在 MATLAB 和生成的 CUDA 代码之间进行交互式追溯,使用 SIL 测试对生成的 CUDA 代码的行为进行数值验证。
加速 MATLAB 和 Simulink 仿真
在 MATLAB 代码中以 MEX 函数形式调用生成的 CUDA 代码以加速执行。结合使用 Simulink Coder 和 GPU Coder 以在 NVIDIA GPU 上加速 Simulink 模型中 MATLAB Function 模块的计算密集部分。
产品资源:
“从数据注释到选择、训练、测试和微调深度学习模型,MATLAB 拥有我们所需的全部工具。尽管我们的 GPU 使用经验有限,GPU Coder 仍然帮助我们很快地将实现部署到了 NVIDIA GPU。”