AI²-Schnittstellen für Tools mit Deep Learning
MERLIC umfasst Artificial Intelligence Acceleration-Schnittstellen (AI²) für das NVIDIA® TensorRT™ SDK und die Intel® Distribution of OpenVINO™ toolkit. Diese ermöglichen eine vorteilhafte Verwendung von KI-Beschleuniger-Hardware, die mit dem NVIDIA® TensorRT™ SDK oder dem OpenVINO™ toolkit kompatibel ist. In MERLIC-Tools mit Deep Learning-Funktionalität können Sie diese KI-Beschleuniger-Hardware nutzen und eine Recheneinheit auswählen, die NVIDIA® TensorRT™ oder das OpenVINO™ toolkit unterstützt. So kann MERLIC optimierte Inferenzberechnungen auf der jeweiligen Hardware durchführen. Dadurch können Deep Learning-Inferenzberechnungen auf derartigen Recheneinheiten, d. h. NVIDIA®-GPUs und Intel®-Prozessoren wie CPUs, GPUs und VPUs, erheblich beschleunigt werden. Durch die Erweiterung der unterstützten Intel®- und NVIDIA®-Einheiten haben Sie jetzt noch mehr Flexibilität bei der Auswahl der Hardware zur Optimierung von Inferenzberechnungen in Deep Learning-Anwendungen.
Unterstützte Hardware und Plugins
Die AI²-Schnittstelle in MERLIC unterstützt folgende Hardware und Plugins:
NVIDIA® TensorRT™
- NVIDIA®-GPUs (kein Installationsschritt erforderlich)
Weitere Informationen zu unterstützten Plattformen, Funktionen und Hardwarefähigkeiten finden Sie in der Dokumentation von NVIDIA® TensorRT™ unter: Support Matrix.
OpenVINO™ Toolkit
- CPUs (kein Installationsschritt erforderlich)
- Intel®-GPUs
- Intel®Movidius™-VPUs: HDDL-Plugin und MYRIAD-Plugin
Weitere Informationen zu den Einheiten und Plugins finden Sie in der Dokumentation zum OpenVINO™ toolkit unter: Supported Devices.
Systemanforderungen
Wenn Sie die Intel® Distribution of OpenVINO™ toolkit verwenden möchten, müssen Sie sicherstellen, dass zusätzlich zu den Systemanforderungen von MERLIC die Systemanforderungen für das OpenVINO™ toolkit erfüllt werden. Weitere Informationen finden Sie in der jeweiligen Dokumentation:
NVIDIA® TensorRT™ in MERLIC verwenden
Sie können NVIDIA® TensorRT™, d. h. NVIDIA®-GPUs, ohne zusätzlichen Installationsaufwand für die Optimierung von Inferenzberechnungen auf der Hardware verwenden. Alle erforderlichen Treiber sind im Lieferumfang von MERLIC enthalten. Wenn eine NVIDIA®-GPU in Ihrem System verfügbar ist, können Sie diese in den folgenden MERLIC-Tools verwenden:
- Verarbeitung → Zählen → Mit Deep Learning zählen
- Verarbeitung → Deep Learning - KI → Bild klassifizieren
- Verarbeitung → Deep Learning - KI → Anomalien finden
- Verarbeitung → Deep Learning - KI → Anomalien im globalen Kontext finden
- Verarbeitung → Deep Learning - KI → Objekte finden
- Verarbeitung → Deep Learning - KI → Bild pixelgenau segmentieren
- Verarbeitung → Lesen → Text und Zahlen mit Deep Learning lesen
Die Hardware für die Optimierung über NVIDIA® TensorRT™ kann in den betreffenden MERLIC-Tools wie folgt ausgewählt werden:
- Klicken Sie auf den Parameter „Recheneinheit“, um die Liste der verfügbaren Hardware anzuzeigen.
- Wählen Sie die gewünschte NVIDIA®-GPU in der Liste aus. Sie können die entsprechende Hardware am Namenspräfix „TensorRT(TM)“ erkennen.
OpenVINO™ Toolkit in MERLIC verwenden
In MERLIC können Sie Hardware, die das OpenVINO™ toolkit unterstützt, in allen MERLIC-Tools mit Deep Learning-Funktionalität verwenden, z. B. in Bild klassifizieren. Abhängig vom Typ der Hardware, die Sie verwenden möchten, kann es jedoch erforderlich sein, zuerst das OpenVINO™ toolkit einzurichten, damit die entsprechende Hardware in MERLIC verwendet werden kann.
Eine CPU mit der OpenVINO™ Toolkit verwenden
Wenn Sie eine CPU mit dem OpenVINO™ toolkit verwenden möchten, ist keine zusätzliche Installation notwendig. Sie können sie direkt nach der MERLIC-Installation verwenden.
Eine Intel®-GPU oder Intel® Movidius™-VPU mit der OpenVINO™ Toolkit verwenden
Um Intel®-GPUs und Intel® Movidius™-VPUs mit dem OpenVINO™ toolkit als Recheneinheit in MERLIC verwenden zu können, müssen Sie zuerst die Intel® Distribution of OpenVINO™ toolkit installieren. Darüber hinaus müssen Sie MERLIC in einer OpenVINO™ toolkit-Umgebung starten, damit die GPUs und VPUs mit OpenVINO™ toolkit-Unterstützung erkannt werden und in MERLIC verfügbar sind.
Weitere Informationen zur Installation und zum Starten von MERLIC in einer OpenVINO™ toolkit-Umgebung finden Sie in den folgenden Abschnitten.
Intel® Distribution of OpenVINO™ Toolkit installieren
Um eine GPU oder VPU mit der AI²-Schnittstelle in den Tools „Bild klassifizieren“ und „Anomalien finden“ als Recheneinheit verwenden zu können, ist eine installierte Version der Intel® Distribution of OpenVINO™ toolkit erforderlich. Dies ist notwendig, weil für die meisten OpenVINO™ toolkit-Plugins weitere Treiber und Programm installiert werden müssen, die mit dem OpenVINO™ Toolkit Interface bereitgestellt werden.
- Laden Sie das Installationsprogramm für das OpenVINO™ toolkit von der Intel®-Website herunter: OpenVINO™ toolkit-Download
- Starten Sie die Installation und befolgen Sie die Anweisungen im Installationsprogramm.
MERLIC in einer OpenVINO™ Toolkit-Umgebung starten
Um das OpenVINO™ toolkit für die Optimierung auf GPUs oder VPUs verwenden zu können, muss MERLIC wie folgt in einer OpenVINO™ toolkit-Umgebung gestartet werden:
- Öffnen Sie eine Eingabeaufforderung.
- Wechseln Sie in das bin-Verzeichnis im OpenVINO™ toolkit-Installationsverzeichnis.
- Führen Sie die folgende Batchdatei aus: setupvars.bat
- Starten Sie MERLIC über die Kommandozeile, indem Sie die ausführbare MERLIC-Datei mit dem vollständigen Pfad aufrufen, z. B. „%PROGRAMFILES%\MVTec\MERLIC-5.6\bin\x64-win64\merlic_creator.exe“.
cd "C:\Program Files (x86)\Intel\openvino_2021.4.689\bin"
setupvars.bat
"C:\Program Files\MVTec\MERLIC-5.6\bin\x64-win64\merlic_creator.exe"
Ausführlichere Informationen zur Installation und zur Konfiguration der Umgebung finden Sie in der Dokumentation Get Started auf der OpenVINO™ toolkit-Website.
Hardware mit OpenVINO™ Toolkit-Unterstützung in einem MERLIC-Tool auswählen
Sie können das OpenVINO™ toolkit in den folgenden MERLIC-Tools für die Optimierung von Inferenzberechnungen verwenden:
- Verarbeitung → Zählen → Mit Deep Learning zählen
- Verarbeitung → Deep Learning - KI → Bild klassifizieren
- Verarbeitung → Deep Learning - KI → Anomalien finden
- Verarbeitung → Deep Learning - KI → Anomalien im globalen Kontext finden
- Verarbeitung → Deep Learning - KI → Objekte finden
- Verarbeitung → Deep Learning - KI → Bild pixelgenau segmentieren
- Verarbeitung → Lesen → Text und Zahlen mit Deep Learning lesen
Die Hardware für die Optimierung über das OpenVINO™ toolkit kann in den betreffenden MERLIC-Tools wie folgt ausgewählt werden:
- Klicken Sie auf den Parameter „Recheneinheit“, um die Liste der verfügbaren Hardware anzuzeigen.
- Wählen Sie die gewünschte Hardware mit OpenVINO™ toolkit-Unterstützung in der Liste aus. Sie können die entsprechende Hardware am Namenspräfix „OpenVINO(TM)“ erkennen.
Vergewissern Sie sich, dass alle Voraussetzungen in Bezug auf Installation und OpenVINO™ toolkit-Umgebung erfüllt sind (siehe Beschreibung oben), wenn die gewünschte Hardware im Parameter „Recheneinheit“ nicht mit dem Präfix „OpenVINO(TM)“ angezeigt wird.
Drittanbieterbibliotheken verwenden
Die AI²-Schnittstellen hängen von den Drittanbieterbibliotheken von NVIDIA® TensorRT™ und für das OpenVINO™ Toolkit Interface ab. Copyright- und Lizenzinformationen finden Sie in der Datei „third_party_licenses.txt“ im MERLIC-Installationsverzeichnis oder im Dialogfeld „Hilfe > Über“.
Das License Agreement for NVIDIA Software Development Kits finden Sie auf der folgenden Website: License Agreement for NVIDIA Software Development Kits
Details zu allgemeinen Rechtsinformationen zur Intel® Distribution of OpenVINO™ toolkit finden Sie auf der Website mit Rechtsinformationen für das OpenVINO™ toolkit.
Die End User License Agreements für Intel®-Softwareentwicklungstools und andere Intel®-Softwareentwicklungsprodukte finden Sie auf der folgenden Website: Intel® End User License Agreements