MATLAB Coder Support Package for PyTorch® and LiteRT Models 使您能够从各种预训练的 PyTorch 和 LiteRT(以前称为 TensorFlow Lite)深度学习网络生成可读且可移植的 C/C++ 源代码。您可以将包含 MATLAB 和 Simulink 预处理与后处理以及深度学习模型在内的完整应用,作为源代码、静态库或动态库集成到您现有的 C/C++ 项目中。随后,您可以将完整的应用部署到从桌面系统到嵌入式硬件的各种硬件平台上。
该支持包还使您能够为现代 NVIDIA® GPU,包括嵌入在 NVIDIA Jetson™ 和 NVIDIA Clara™ 平台上的 GPU,从 PyTorch 和 LiteRT 模型生成 CUDA® 代码(使用 GPU Coder)。您可以应用代码自定义、特定于硬件的优化,以及使用软件在环 (SIL) 和处理器在环 (PIL) 测试进行代码验证(使用 Embedded Coder)。您还可以从包含 PyTorch 和 LiteRT 模型的 Simulink 模型中生成代码(使用 Simulink Coder)。
产品亮点
生成源代码
从预训练的 PyTorch 和 LiteRT 模型生成可读且可移植的 C/C++ 源代码,包括预处理和后处理逻辑。免费将免版权费的生成代码部署到提供给客户的商业应用程序中。或者,针对特定目标使用特定于处理器的内部函数,包括 Infineon© AURIX™ TC4x 微控制器(使用 Embedded Coder)。
在硬件上运行
编译生成的代码并在编译器支持的任何硬件上执行它,从桌面系统到嵌入式处理器和微控制器。将生成的代码手动集成到您的应用,以在各种目标设备上实现。使用硬件支持包自动执行特定目标的过程,包括 MATLAB Support Package for Raspberry Pi 和 MATLAB Coder Support Package for NVIDIA Jetson and NVIDIA DRIVE Platforms。
优化生成的代码
生成单指令多数据流 (SIMD) 指令,并使用多核 OpenMP 代码并行化循环。使用 Embedded Coder 为特定目标生成特定于处理器的内在函数代码,包括 ARM® Cortex®-M、Cortex-A 和 Infineon AURIX TC4x 微控制器,以加快执行速度。
深度学习应用
使用来自 PyTorch 和 LiteRT 的深度学习网络处理不同类型的数据,并将网络部署到资源受限的硬件上。
信号和时间序列数据
对信号和时间序列数据使用深度学习,以执行诸如异常检测、信号分类、电池荷电状态估计和语音识别等任务。基于循环神经网络 (RNN)、长短期记忆网络 (LSTM)/门控循环单元 (GRU)、Transformer 和自编码器生成代码并部署网络到 CPU(包括 ARM Cortex-M、Cortex-A 和 英特尔)以及 NVIDIA GPU。
图像和视频数据
对图像和视频使用深度学习以对图像进行分类,检测和跟踪帧内的对象,并将图像和帧区域分割为不同类型的对象。生成代码并将诸如 YOLO11、DINOv2 和 Depth Anything 等网络部署到 CPU(包括 ARM Cortex-A 和 Intel)和 NVIDIA GPU。
索取支持包
与技术专家交流。
选择网站
选择网站以获取翻译的可用内容,以及查看当地活动和优惠。根据您的位置,我们建议您选择:。
您也可以从以下列表中选择网站:
如何获得最佳网站性能
选择中国网站(中文或英文)以获得最佳网站性能。其他 MathWorks 国家/地区网站并未针对您所在位置的访问进行优化。
美洲
- América Latina (Español)
- Canada (English)
- United States (English)
欧洲
- Belgium (English)
- Denmark (English)
- Deutschland (Deutsch)
- España (Español)
- Finland (English)
- France (Français)
- Ireland (English)
- Italia (Italiano)
- Luxembourg (English)
- Netherlands (English)
- Norway (English)
- Österreich (Deutsch)
- Portugal (English)
- Sweden (English)
- Switzerland
- United Kingdom (English)