eIQ Inference with DeepViewRT™是一款平台经过优化的运行时推理引擎,可扩展到各种恩智浦设备和神经网络计算引擎。该推理引擎免费提供,让资源受限的设备可使用紧凑的代码,这些设备包括 i.MX RT 跨界MCU (Arm® Cortex®-M 内核)以及i.MX 应用处理器(Cortex-A 和 Cortex-M内核、专用神经处理单元(NPU)和 GPU)。
该推理引擎提供两种版本:恩智浦Yocto BSP标准版本,用于基于Linux®操作系统的开发,以及MCUXpresso SDK版本,用于基于嵌入式实时操作系统MCU的开发。
快速参考 文档类别.
2 文件
安全文件正在加载,请稍等
1-5 / 7 硬件
1 培训