[Translate to Deutsch:]

AI Accelerator Interface (AI²)

Mit dem AI Accelerator Interface (AI²) stellt MVTec ein generisches Interface bereit, das es Kunden ermöglicht, für den Inferenz-Teil ihrer Deep-Learning-Applikationen unterstützte KI-Beschleuniger-Hardware zu verwenden – schnell und komfortabel.

Solche speziellen Devices sind gerade für Anwendungen im Embedded-Umfeld weit verbreitet, existieren aber auch immer mehr im PC-Umfeld. Das AI Accelerator Interface ist besonders zukunftssicher. Es abstrahiert nicht nur die Deep-Learning-Modelle von der spezifischen Hardware, sondern ermöglicht es den Nutzern auch, sie für den Einsatz auf ihrer Hardware zu optimieren.

Neben von MVTec zur Verfügung gestellten Plugins ist auch die Anbindung kundenspezifischer KI-Beschleuniger-Hardware möglich. Dabei lassen sich über AI² nicht nur typische Deep-Learning-Anwendungen beschleunigen. Auch alle „klassischen“ Bildverarbeitungs-Methoden mit integrierten Deep-Learning-Funktionen wie etwa HALCONs DeepOCR profitieren davon.

Verfügbare Plugins

AI² PlugInunterstützte Architekturenunterstützte Produkteverfügbar via
NVIDIA® TensorRT™ SDK
  • x64-win64
  • x64-linux
  • aarch64-linux
  • HALCON
  • MERLIC
  • DLT1
MVTec Software Manager
Intel® Distribution des OpenVINO™ Toolkit
  • x64-win64
  • x64-linux
  • HALCON
  • MERLIC
  • DLT1
MVTec Software Manager

HAILO

  • x64-linux
  • aarch64-linux2
  • armv7a-linux2
  • HALCON
HAILO
developer zone


1 Ab DLT 23.04
2 Nur Inferenz

Weitere technische Informationen finden Sie im HALCON-Referenzhandbuch, Abschnitt "AI Accelerator Interfaces (AI²)", oder in der MERLIC Tool-Referenz, Abschnitt "AI²-Schnittstellen für Tools mit Deep Learning".

Beispiel-Skripte

BeschreibungDownload
Beispielprogramm zur Deep-Learning-Klassifizierung basierend auf der AI²-Schnittstelle des Intel® OpenVINO™ Toolkits von MVTec HALCONZip-Datei