AI 加速器接口 (AI²)

加速推理 在 HALCON 中的深度学习

通过 AI² 接口(AI 加速器接口),MVTec 提供了一种高性能且灵活的解决方案,用于在专业硬件上运行深度学习模型。这显著加速了推理过程(执行训练好的神经网络),即使在计算资源有限的边缘设备上也能如此。

AI² 接口通过统一的编程接口扩展了 HALCON,使用户能够使用不同的硬件平台。这使得用户能够有效分配计算负载,充分利用硬件资源——从高性能的 GPU 系统到节能的嵌入式系统。

为什么选择 AI²?

深度学习模型通常需要强大的计算能力,特别是在大数据量的实时推理中。AI² 接口使得硬件加速得以无缝实现,无需更改应用程序代码。

通过专用加速器实现最大性能。

在支持的平台之间统一的 API 结构。

切换设备时的最小实现工作量。

从桌面系统到嵌入式和边缘设备的可扩展性。

可用插件

AI² 插件支持的架构支持的产品可通过以下工具来实现
NVIDIA® TensorRT™ SDK
  • x64-win64
  • x64-linux
  • aarch64-linux
  • HALCON
  • MERLIC
  • DLT1
MVTec Software Manager
Intel® Distribution of OpenVINO™ toolkit
  • x64-win64
  • x64-linux
  • HALCON
  • MERLIC
  • DLT1
MVTec Software Manager
HAILO
  • x64-win643
  • x64-linux
  • aarch64-linux2
  • armv7a-linux2
  • HALCON
  • DLT3
HAILO Developer Zone

 

1 自 DLT 23.04 版本起
2 仅限推理
3 自 DLT 24.05 版本起

有关更多技术信息,请参阅 HALCON 参考手册的“AI 加速接口 (AI²)”部分,或 MERLIC 工具参考的“深度学习工具的 AI² 接口”部分。前往我们的产品文档

示例脚本

帮助文件下载
基于 MVTec HALCON 的 Intel® OpenVINO™ 工具套件的 AI² 加速器接口的深度学习图像分类的范例程序Zip-file
基于 MVTec HALCON 的 Intel® OpenVINO™ 工具套件的 AI² 加速器接口的深度学习对象检测的范例程序Zip-file

模型兼容性

HALCON 支持预训练的 HALCON 网络,并且能够集成第三方的 ONNX 格式网络。ONNX 不是 AI² 插件,而是一个用于导入模型的交换格式。

开始深度学习
工作流程

从数据采集到推理——全面了解深度学习工作流程。

广泛的功能特性
深度学习方法

通过深度学习,我们的软件提供了广泛的强大方法,适用于各种机器视觉任务。

我们的知识与服务

从我们的专业经验中受益

实用洞察与专业知识
阅读我们的白皮书!

下载阅读我们的白皮书,获取工业机器视觉的实用洞察与专业知识,了解关键技术、行业趋势,以及可支持技术和战略决策的实际应用。

量身打造
评估您的应用需求

您想了解我们是否能为您的行业提供合适的解决方案吗?请将您的软件应用设计发送给我们,我们的专家将为您进行评估。

MVTec Software