通过提供低延迟、高性能和高能效的解决方案,为下一波边缘AI创新赋能,应用范围涵盖实时计算机视觉到生成式AI。
| 产品 | 说明 | 边缘AI特性 |
|---|---|---|
| Ara-1 | 为AI集成摄像头和嵌入式系统加速机器学习,提供实时性能和低延迟。 |
|
| Ara-2新 | 提供高达40 eTOPS*的AI性能,高效处理边缘侧的生成式AI和基于Transformer的模型。 |
|
DNPU补充了i.MX应用处理器,分流了繁重的AI和机器学习任务,从而在边缘实现更快、更高效的推理,并通过其组合的处理能力与专业化功能,实现实时、高能效的边缘AI性能。
强大的解决方案,具有先进的神经网络处理、图形、机器视觉、视频、音频、和语音功能。
性能更高的应用内核,独立的类MCU实时域,适用于边缘的EdgeLock®安全区域和ML加速功能。
神经处理单元(NPU)是专为加速神经网络执行而设计的处理器。NPU的本地化处理可显著加快响应速度、大幅增强隐私保护并降低延迟,这些对于众多工业和汽车应用而言至关重要。
同时拥有独立NPU和集成式NPU提供了灵活性。DNPU非常适合高性能、低延迟的专用AI任务,而集成式NPU则能处理更通用的AI处理以及低功耗始终在线AI功能。这种组合能够实现更优化、更高效的智能边缘系统架构。
当与恩智浦的应用处理器结合使用时,我们的DPNU产品组合为客户提供一个端到端平台,能够实现非常高效的前端处理和高性能AI工作负载加速。恩智浦的客户将可获得一套全面而强大的AI解决方案组合,涵盖从低功耗TinyML应用,到高性能生成式AI实现,乃至能够无缝运行多模态代理式 AI工作流程。虽然与恩智浦应用处理器的集成可增强开发人员体验,但恩智浦的DNPU也可以与非恩智浦的主机处理器配合使用。
我们的DNPU产品凭借其可编程、灵活且高效的计算与内存架构脱颖而出,该架构既支持CNN,也支持包括视觉语言模型(VLM)和大语言模型(LLM)在内的基于Transformer的模型,从而实现了先进的代理式AI用例。我们的DNPU支持动态量化,通过降低内存需求来提高性能并降低系统成本。此外,恩智浦DNPU的架构可处理多个模型,可避免切换时的性能损失。
这些技术的结合将解锁广泛的边缘AI应用,包括:
创建真正交互且智能的设备,能够理解并响应诸如语音、视觉和文本等多样化的输入。这与多模态生成式AI模型的发展趋势相契合,这些模型展示了结合不同数据模态以实现更丰富的理解能力。
实现高度复杂的物体检测、图像识别和视频分析,适用于自动驾驶、智能监控和工业自动化等应用。
提升语音助手、语音识别和自然语言理解能力,以实现更直观、无缝的人机交互。
实现预测性维护、异常检测和实时流程优化,从而提高效率并减少停机时间。
会的,DNPU软件支持将被集成到恩智浦eIQ AI软件开发环境中,为我们的客户使用恩智浦所有边缘AI产品创造无缝体验。合并后的开发环境将包含模型库和模型优化工具,为开发人员提供更强大的工具,以优化AI模型的边缘部署。