read_dl_modelT_read_dl_modelReadDlModelReadDlModelread_dl_model (Operator)

Name

read_dl_modelT_read_dl_modelReadDlModelReadDlModelread_dl_model — Lesen eines Deep Learning-Modells aus einer Datei.

Signatur

read_dl_model( : : FileName : DLModelHandle)

Herror T_read_dl_model(const Htuple FileName, Htuple* DLModelHandle)

void ReadDlModel(const HTuple& FileName, HTuple* DLModelHandle)

void HDlModel::HDlModel(const HString& FileName)

void HDlModel::HDlModel(const char* FileName)

void HDlModel::HDlModel(const wchar_t* FileName)   (Nur Windows)

void HDlModel::ReadDlModel(const HString& FileName)

void HDlModel::ReadDlModel(const char* FileName)

void HDlModel::ReadDlModel(const wchar_t* FileName)   (Nur Windows)

static void HOperatorSet.ReadDlModel(HTuple fileName, out HTuple DLModelHandle)

public HDlModel(string fileName)

void HDlModel.ReadDlModel(string fileName)

def read_dl_model(file_name: str) -> HHandle

Beschreibung

Der Operator read_dl_modelread_dl_modelReadDlModelReadDlModelReadDlModelread_dl_model liest ein Deep Learning-Modell. Diese Modelle müssen im HALCON Format oder alternativ im ONNX Format (siehe die Referenz weiter unten) vorliegen. Im zweiten Fall gelten die unten erwähnten Einschränkungen. Als Ergebnis wird das Handle DLModelHandleDLModelHandleDLModelHandleDLModelHandleDLModelHandledlmodel_handle zurückgegeben.

Das Modell wird aus der Datei FileNameFileNameFileNameFileNamefileNamefile_name geladen. Die Datei wird hierbei sowohl im Verzeichnis $HALCONROOT/dl/, als auch im aktuell genutzten Verzeichnis gesucht. Die Standard-Dateiendung eines Deep Learning-basierten Klassifikators ist '.hdl'.

Zu beachten ist, dass die Werte laufzeitspezifischer Parameter nicht in der Datei abgespeichert werden, siehe write_dl_modelwrite_dl_modelWriteDlModelWriteDlModelWriteDlModelwrite_dl_model. Folglich werden diese Parameter beim Einlesen des Modells mit ihrem Standardwert (siehe get_dl_model_paramget_dl_model_paramGetDlModelParamGetDlModelParamGetDlModelParamget_dl_model_param) initialisiert.

Für weitere Informationen zu Deep Learning-Modellen in HALCON siehe das Kapitel Deep Learning / Modell.

Einlesen eines von HALCON zur Verfügung gestellten Modells

HALCON stellt Neuronale Netzwerke für die Klassifikation und Semantische Segmentierung bereit, welche auf einem großen Datensatz vortrainiert wurden. Diese Neuronalen Netzwerke sind gute Ausgangspunkte, um damit eigene Neuronale Netze für ein individuelles Problem zu trainieren. Für die Anomalieerkennung stellt HALCON initiale Modelle zur Verfügung.

Modelle für die 3D Gripping Point Detection

Das folgende Netzwerk steht für die 3D Gripping Point Detection zur Verfügung:

'pretrained_dl_3d_gripping_point.hdl'"pretrained_dl_3d_gripping_point.hdl""pretrained_dl_3d_gripping_point.hdl""pretrained_dl_3d_gripping_point.hdl""pretrained_dl_3d_gripping_point.hdl""pretrained_dl_3d_gripping_point.hdl"

Das Netzwerk erwartet bis zu 5 Bilder vom Typ real:

'image'"image""image""image""image""image": Intensitätsbild (Grauwertbilder)

'x'"x""x""x""x""x": X-Bild (Werte müssen von links nach rechts aufsteigend)

'y'"y""y""y""y""y": Y-Bild (Werte müssen von oben nach unten aufsteigend)

'z'"z""z""z""z""z": Z-Bild (Werte müssen von dem Sensor nahen zu fernen Punkten aufsteigen; das ist z.B. der Fall wenn die Daten bezüglich des Kamerakoordinatensystems angegeben werden)

'normals'"normals""normals""normals""normals""normals": 2D-Mappings

Zusätzlich erfordert das Netzwerk spezifische Bildeigenschaften (für alle genannten Eingabebilder), welche über get_dl_model_paramget_dl_model_paramGetDlModelParamGetDlModelParamGetDlModelParamget_dl_model_param abgefragt werden können. Hier werden die Defaultwerte gelistet:

'image_width'"image_width""image_width""image_width""image_width""image_width": 640

'image_height'"image_height""image_height""image_height""image_height""image_height": 480

Die Netzwerkarchitektur erlaubt Änderungen der Bilddimensionen.

Modelle für die Anomalieerkennung

Die folgenden Netzwerke stehen für die Anomalieerkennung zur Verfügung:

'initial_dl_anomaly_medium.hdl'"initial_dl_anomaly_medium.hdl""initial_dl_anomaly_medium.hdl""initial_dl_anomaly_medium.hdl""initial_dl_anomaly_medium.hdl""initial_dl_anomaly_medium.hdl"

Dieses Netzwerk hat einen vergleichsweise niedrigeren Speicherverbrauch und geringere Laufzeit als 'initial_dl_anomaly_large.hdl'"initial_dl_anomaly_large.hdl""initial_dl_anomaly_large.hdl""initial_dl_anomaly_large.hdl""initial_dl_anomaly_large.hdl""initial_dl_anomaly_large.hdl".

Das Netzwerk erwartet Eingabebilder vom Typ real. Zusätzlich erfordert das Netzwerk spezifische Bildeigenschaften, welche über get_dl_model_paramget_dl_model_paramGetDlModelParamGetDlModelParamGetDlModelParamget_dl_model_param abgefragt werden können. Hier werden die Defaultwerte gelistet:

'image_width'"image_width""image_width""image_width""image_width""image_width": 480

'image_height'"image_height""image_height""image_height""image_height""image_height": 480

'image_num_channels'"image_num_channels""image_num_channels""image_num_channels""image_num_channels""image_num_channels": 3

'image_range_min'"image_range_min""image_range_min""image_range_min""image_range_min""image_range_min": -2

'image_range_max'"image_range_max""image_range_max""image_range_max""image_range_max""image_range_max": 2

Die Netzwerkarchitektur erlaubt Änderungen der Bilddimensionen, verlangt aber, dass die Bildbreite 'image_width'"image_width""image_width""image_width""image_width""image_width" und Bildhöhe 'image_height'"image_height""image_height""image_height""image_height""image_height" Vielfache von 32 Pixel sind, woraus sich ein Minimalwert von 32 Pixeln ergibt.

'initial_dl_anomaly_large.hdl'"initial_dl_anomaly_large.hdl""initial_dl_anomaly_large.hdl""initial_dl_anomaly_large.hdl""initial_dl_anomaly_large.hdl""initial_dl_anomaly_large.hdl"

Dieses Netzwerk ist für komplexere Aufgaben in der Regel besser geeignet als 'initial_dl_anomaly_medium.hdl'"initial_dl_anomaly_medium.hdl""initial_dl_anomaly_medium.hdl""initial_dl_anomaly_medium.hdl""initial_dl_anomaly_medium.hdl""initial_dl_anomaly_medium.hdl". Dafür ist es rechen- und speicheraufwändiger.

Das Netzwerk erwartet Eingabebilder vom Typ real. Zusätzlich erfordert das Netzwerk spezifische Bildeigenschaften, welche über get_dl_model_paramget_dl_model_paramGetDlModelParamGetDlModelParamGetDlModelParamget_dl_model_param abgefragt werden können. Hier werden die Defaultwerte gelistet:

'image_width'"image_width""image_width""image_width""image_width""image_width": 480

'image_height'"image_height""image_height""image_height""image_height""image_height": 480

'image_num_channels'"image_num_channels""image_num_channels""image_num_channels""image_num_channels""image_num_channels": 3

'image_range_min'"image_range_min""image_range_min""image_range_min""image_range_min""image_range_min": -2

'image_range_max'"image_range_max""image_range_max""image_range_max""image_range_max""image_range_max": 2

Die Netzwerkarchitektur erlaubt Änderungen der Bilddimensionen, verlangt aber, dass die Bildbreite 'image_width'"image_width""image_width""image_width""image_width""image_width" und Bildhöhe 'image_height'"image_height""image_height""image_height""image_height""image_height" Vielfache von 32 Pixel sind, woraus sich ein Minimalwert von 32 Pixeln ergibt.

Modelle für die Global Context Anomaly Detection

Die folgenden Netzwerke stehen für die Global Context Anomaly Detection zur Verfügung:

'pretrained_dl_anomaly_global_context.hdl'"pretrained_dl_anomaly_global_context.hdl""pretrained_dl_anomaly_global_context.hdl""pretrained_dl_anomaly_global_context.hdl""pretrained_dl_anomaly_global_context.hdl""pretrained_dl_anomaly_global_context.hdl"

Das Netzwerk erwartet Eingabebilder vom Typ real. Zusätzlich erfordert das Netzwerk spezifische Bildeigenschaften, welche über get_dl_model_paramget_dl_model_paramGetDlModelParamGetDlModelParamGetDlModelParamget_dl_model_param abgefragt werden können. Hier werden die Defaultwerte gelistet:

'image_width'"image_width""image_width""image_width""image_width""image_width": 256

'image_height'"image_height""image_height""image_height""image_height""image_height": 256

'image_num_channels'"image_num_channels""image_num_channels""image_num_channels""image_num_channels""image_num_channels": 3

'image_range_min'"image_range_min""image_range_min""image_range_min""image_range_min""image_range_min": -127.0

'image_range_max'"image_range_max""image_range_max""image_range_max""image_range_max""image_range_max": 128.0

Modelle für die Klassifikation

Die folgenden vortrainierten Neuronalen Netzwerke stehen für die Klassifikation und als Backbone bei der Objektdetektion zur Verfügung:

'pretrained_dl_classifier_alexnet.hdl'"pretrained_dl_classifier_alexnet.hdl""pretrained_dl_classifier_alexnet.hdl""pretrained_dl_classifier_alexnet.hdl""pretrained_dl_classifier_alexnet.hdl""pretrained_dl_classifier_alexnet.hdl":

Dieses Neuronale Netzwerk ist geeignet für einfache Klassifikationsaufgaben. Es zeichnet sich durch die Faltungskerne der ersten Faltungs-Layer aus, welche größer sind als bei Netzwerken vergleichbarer Klassifikationsleistung (z.B. 'pretrained_dl_classifier_compact.hdl'"pretrained_dl_classifier_compact.hdl""pretrained_dl_classifier_compact.hdl""pretrained_dl_classifier_compact.hdl""pretrained_dl_classifier_compact.hdl""pretrained_dl_classifier_compact.hdl"). Dies kann für das Extrahieren von Merkmalskarten von Vorteil sein.

Der Klassifikator erwartet Eingabebilder vom Typ real. Zusätzlich erfordert das Neuronale Netzwerk spezifische Bildeigenschaften, welche über get_dl_model_paramget_dl_model_paramGetDlModelParamGetDlModelParamGetDlModelParamget_dl_model_param abgefragt werden können. Hier werden die Defaultwerte gelistet, mit welchen der Klassifikator trainiert wurde:

'image_width'"image_width""image_width""image_width""image_width""image_width": 224

'image_height'"image_height""image_height""image_height""image_height""image_height": 224

'image_num_channels'"image_num_channels""image_num_channels""image_num_channels""image_num_channels""image_num_channels": 3

'image_range_min'"image_range_min""image_range_min""image_range_min""image_range_min""image_range_min": -127.0

'image_range_max'"image_range_max""image_range_max""image_range_max""image_range_max""image_range_max": 128.0

Die Netzwerkarchitektur erlaubt Änderungen der Bilddimensionen. Bildbreite 'image_width'"image_width""image_width""image_width""image_width""image_width" und Bildhöhe 'image_height'"image_height""image_height""image_height""image_height""image_height" sollten dabei aber 29 Pixel nicht unterschreiten. Durch die Netzwerkarchitektur wird die Bildgröße nach oben hin nicht beschränkt, aber zunehmende Bildgrößen erhöhen den Speicher- und Laufzeitbedarf erheblich. Jede Änderung der Bildgröße führt zu einem Reinitialisieren der Gewichte in den Fully-connected Layern und macht dadurch ein Nachtrainieren notwendig.

Man kann die Laufzeit dieses Netzwerkes beschleunigen, indem man die Faltungs- und ReLU-Layer miteinander verbindet, siehe set_dl_model_paramset_dl_model_paramSetDlModelParamSetDlModelParamSetDlModelParamset_dl_model_param und den Parameter 'fuse_conv_relu'"fuse_conv_relu""fuse_conv_relu""fuse_conv_relu""fuse_conv_relu""fuse_conv_relu".

'pretrained_dl_classifier_compact.hdl'"pretrained_dl_classifier_compact.hdl""pretrained_dl_classifier_compact.hdl""pretrained_dl_classifier_compact.hdl""pretrained_dl_classifier_compact.hdl""pretrained_dl_classifier_compact.hdl":

Dieses Neuronale Netzwerk ist besonders effizient bezüglich des Speicherverbrauchs und der Laufzeit.

Der Klassifikator erwartet Eingabebilder vom Typ real. Zusätzlich erfordert das Neuronale Netzwerk spezifische Bildeigenschaften, welche über get_dl_model_paramget_dl_model_paramGetDlModelParamGetDlModelParamGetDlModelParamget_dl_model_param abgefragt werden können. Hier werden die Defaultwerte gelistet, mit welchen der Klassifikator trainiert wurde:

'image_width'"image_width""image_width""image_width""image_width""image_width": 224

'image_height'"image_height""image_height""image_height""image_height""image_height": 224

'image_num_channels'"image_num_channels""image_num_channels""image_num_channels""image_num_channels""image_num_channels": 3

'image_range_min'"image_range_min""image_range_min""image_range_min""image_range_min""image_range_min": -127.0

'image_range_max'"image_range_max""image_range_max""image_range_max""image_range_max""image_range_max": 128.0

Dieses Neuronale Netzwerk enthält keinen Fully-connected Layer. Die Netzwerkarchitektur erlaubt Änderungen der Bilddimensionen. Bildbreite 'image_width'"image_width""image_width""image_width""image_width""image_width" und Bildhöhe 'image_height'"image_height""image_height""image_height""image_height""image_height" sollten dabei aber 15 Pixel nicht unterschreiten.

'pretrained_dl_classifier_enhanced.hdl'"pretrained_dl_classifier_enhanced.hdl""pretrained_dl_classifier_enhanced.hdl""pretrained_dl_classifier_enhanced.hdl""pretrained_dl_classifier_enhanced.hdl""pretrained_dl_classifier_enhanced.hdl":

Dieses Neuronale Netzwerk hat mehr verborgene Layer als 'pretrained_dl_classifier_compact.hdl'"pretrained_dl_classifier_compact.hdl""pretrained_dl_classifier_compact.hdl""pretrained_dl_classifier_compact.hdl""pretrained_dl_classifier_compact.hdl""pretrained_dl_classifier_compact.hdl" und ist daher für komplexere Klassifikationsaufgaben in der Regel besser geeignet. Dafür ist dieses Netzwerk rechen- und speicheraufwändiger.

Der Klassifikator erwartet Eingabebilder vom Typ real. Zusätzlich erfordert das Neuronale Netzwerk spezifische Bildeigenschaften, welche über get_dl_model_paramget_dl_model_paramGetDlModelParamGetDlModelParamGetDlModelParamget_dl_model_param abgefragt werden können. Hier werden die Defaultwerte gelistet, mit welchen der Klassifikator trainiert wurde:

'image_width'"image_width""image_width""image_width""image_width""image_width": 224

'image_height'"image_height""image_height""image_height""image_height""image_height": 224

'image_num_channels'"image_num_channels""image_num_channels""image_num_channels""image_num_channels""image_num_channels": 3

'image_range_min'"image_range_min""image_range_min""image_range_min""image_range_min""image_range_min": -127.0

'image_range_max'"image_range_max""image_range_max""image_range_max""image_range_max""image_range_max": 128.0

Die Netzwerkarchitektur erlaubt Änderungen der Bilddimensionen. Bildbreite 'image_width'"image_width""image_width""image_width""image_width""image_width" und Bildhöhe 'image_height'"image_height""image_height""image_height""image_height""image_height" sollten dabei aber 47 Pixel nicht unterschreiten. Durch die Netzwerkarchitektur wird die Bildgröße nach oben hin nicht beschränkt, aber zunehmende Bildgrößen erhöhen den Speicher- und Laufzeitbedarf erheblich. Jede Änderung der Bildgröße führt zu einem Reinitialisieren der Gewichte in den Fully-connected Layern und macht dadurch ein Nachtrainieren notwendig.

'pretrained_dl_classifier_mobilenet_v2.hdl'"pretrained_dl_classifier_mobilenet_v2.hdl""pretrained_dl_classifier_mobilenet_v2.hdl""pretrained_dl_classifier_mobilenet_v2.hdl""pretrained_dl_classifier_mobilenet_v2.hdl""pretrained_dl_classifier_mobilenet_v2.hdl":

Dieser Klassifikator ist ein kleines, energieeffizientes Modell und daher besser für mobile und embedded Bildverarbeitungsanwendungen geeignet.

Der Klassifikator erwartet Eingabebilder vom Typ real. Zusätzlich erfordert das Neuronale Netzwerk spezifische Bildeigenschaften, welche über get_dl_model_paramget_dl_model_paramGetDlModelParamGetDlModelParamGetDlModelParamget_dl_model_param abgefragt werden können. Hier werden die Defaultwerte gelistet, mit welchen der Klassifikator trainiert wurde:

'image_width'"image_width""image_width""image_width""image_width""image_width": 224

'image_height'"image_height""image_height""image_height""image_height""image_height": 224

'image_num_channels'"image_num_channels""image_num_channels""image_num_channels""image_num_channels""image_num_channels": 3

'image_range_min'"image_range_min""image_range_min""image_range_min""image_range_min""image_range_min": -127.0

'image_range_max'"image_range_max""image_range_max""image_range_max""image_range_max""image_range_max": 128.0

Die Netzwerkarchitektur erlaubt Änderungen der Bilddimensionen. Bildbreite 'image_width'"image_width""image_width""image_width""image_width""image_width" und Bildhöhe 'image_height'"image_height""image_height""image_height""image_height""image_height" sollten dabei aber 32 Pixel nicht unterschreiten. Durch die Netzwerkarchitektur wird die Bildgröße nach oben hin nicht beschränkt, aber zunehmende Bildgrößen erhöhen den Speicher- und Laufzeitbedarf erheblich.

Auf der GPU kann die Netzwerkarchitektur stark von speziellen Optimierungen profitieren, ohne welche das Netz deutlich langsamer sein kann.

'pretrained_dl_classifier_resnet18.hdl'"pretrained_dl_classifier_resnet18.hdl""pretrained_dl_classifier_resnet18.hdl""pretrained_dl_classifier_resnet18.hdl""pretrained_dl_classifier_resnet18.hdl""pretrained_dl_classifier_resnet18.hdl":

Wie das Neuronale Netzwerk 'pretrained_dl_classifier_enhanced.hdl'"pretrained_dl_classifier_enhanced.hdl""pretrained_dl_classifier_enhanced.hdl""pretrained_dl_classifier_enhanced.hdl""pretrained_dl_classifier_enhanced.hdl""pretrained_dl_classifier_enhanced.hdl" ist dieser Klassifikator für komplexere Aufgaben geeignet. Die spezielle Struktur dieses Klassifikators bringt allerdings den Vorteil mit sich, das Training stabiler zu machen und intern robuster zu sein. Gegenüber dem Neuronalen Netzwerk 'pretrained_dl_classifier_resnet50.hdl'"pretrained_dl_classifier_resnet50.hdl""pretrained_dl_classifier_resnet50.hdl""pretrained_dl_classifier_resnet50.hdl""pretrained_dl_classifier_resnet50.hdl""pretrained_dl_classifier_resnet50.hdl", ist es etwas weniger komplex dafür in der Ausführung schneller.

Der Klassifikator erwartet Eingabebilder vom Typ real. Zusätzlich erfordert das Neuronale Netzwerk spezifische Bildeigenschaften, welche über get_dl_model_paramget_dl_model_paramGetDlModelParamGetDlModelParamGetDlModelParamget_dl_model_param abgefragt werden können. Hier werden die Defaultwerte gelistet, mit welchen der Klassifikator trainiert wurde:

'image_width'"image_width""image_width""image_width""image_width""image_width": 224

'image_height'"image_height""image_height""image_height""image_height""image_height": 224

'image_num_channels'"image_num_channels""image_num_channels""image_num_channels""image_num_channels""image_num_channels": 3

'image_range_min'"image_range_min""image_range_min""image_range_min""image_range_min""image_range_min": -127.0

'image_range_max'"image_range_max""image_range_max""image_range_max""image_range_max""image_range_max": 128.0

Die Netzwerkarchitektur erlaubt Änderungen der Bilddimensionen. Bildbreite 'image_width'"image_width""image_width""image_width""image_width""image_width" und Bildhöhe 'image_height'"image_height""image_height""image_height""image_height""image_height" sollten dabei aber 32 Pixel nicht unterschreiten. Durch die Netzwerkarchitektur wird die Bildgröße nach oben hin nicht beschränkt, aber zunehmende Bildgrößen erhöhen den Speicher- und Laufzeitbedarf erheblich. Trotz Fully-connected Layer führt eine Änderung der Bildgröße nicht zu einem Reinitialisieren der Gewichte.

'pretrained_dl_classifier_resnet50.hdl'"pretrained_dl_classifier_resnet50.hdl""pretrained_dl_classifier_resnet50.hdl""pretrained_dl_classifier_resnet50.hdl""pretrained_dl_classifier_resnet50.hdl""pretrained_dl_classifier_resnet50.hdl":

Wie das Neuronale Netzwerk 'pretrained_dl_classifier_enhanced.hdl'"pretrained_dl_classifier_enhanced.hdl""pretrained_dl_classifier_enhanced.hdl""pretrained_dl_classifier_enhanced.hdl""pretrained_dl_classifier_enhanced.hdl""pretrained_dl_classifier_enhanced.hdl" ist dieser Klassifikator für komplexere Aufgaben geeignet. Die spezielle Struktur dieses Klassifikators bringt allerdings den Vorteil mit sich, das Training stabiler zu machen und intern robuster zu sein.

Der Klassifikator erwartet Eingabebilder vom Typ real. Zusätzlich erfordert das Neuronale Netzwerk spezifische Bildeigenschaften, welche über get_dl_model_paramget_dl_model_paramGetDlModelParamGetDlModelParamGetDlModelParamget_dl_model_param abgefragt werden können. Hier werden die Defaultwerte gelistet, mit welchen der Klassifikator trainiert wurde:

'image_width'"image_width""image_width""image_width""image_width""image_width": 224

'image_height'"image_height""image_height""image_height""image_height""image_height": 224

'image_num_channels'"image_num_channels""image_num_channels""image_num_channels""image_num_channels""image_num_channels": 3

'image_range_min'"image_range_min""image_range_min""image_range_min""image_range_min""image_range_min": -127.0

'image_range_max'"image_range_max""image_range_max""image_range_max""image_range_max""image_range_max": 128.0

Die Netzwerkarchitektur erlaubt Änderungen der Bilddimensionen. Bildbreite 'image_width'"image_width""image_width""image_width""image_width""image_width" und Bildhöhe 'image_height'"image_height""image_height""image_height""image_height""image_height" sollten dabei aber 32 Pixel nicht unterschreiten. Durch die Netzwerkarchitektur wird die Bildgröße nach oben hin nicht beschränkt, aber zunehmende Bildgrößen erhöhen den Speicher- und Laufzeitbedarf erheblich. Trotz Fully-connected Layer führt eine Änderung der Bildgröße nicht zu einem Reinitialisieren der Gewichte.

Modelle für die Semantische Segmentierung

Folgende vortrainierte Netzwerke stehen für die Semantische Segmentierung zur Verfügung:

'pretrained_dl_edge_extractor.hdl'"pretrained_dl_edge_extractor.hdl""pretrained_dl_edge_extractor.hdl""pretrained_dl_edge_extractor.hdl""pretrained_dl_edge_extractor.hdl""pretrained_dl_edge_extractor.hdl":

Dieses Neuronale Netzwerk ist für die Kantenextraktion konzipiert und vortrainiert. Folglich ist das Netz auch primär für Zwei-Klassen-Probleme ausgelegt, einer Klasse Kanten und einer Klasse Hintergrund.

Das Neuronale Netzwerk erwartet Eingabebilder vom Typ real. Zusätzlich erfordert das Netzwerk spezifische Bildeigenschaften, welche über get_dl_model_paramget_dl_model_paramGetDlModelParamGetDlModelParamGetDlModelParamget_dl_model_param abgefragt werden können. Hier werden die Defaultwerte gelistet, mit welchen das Modell trainiert wurde:

'image_width'"image_width""image_width""image_width""image_width""image_width": 512

'image_height'"image_height""image_height""image_height""image_height""image_height": 512

'image_num_channels'"image_num_channels""image_num_channels""image_num_channels""image_num_channels""image_num_channels": 1

'image_range_min'"image_range_min""image_range_min""image_range_min""image_range_min""image_range_min": -127.0

'image_range_max'"image_range_max""image_range_max""image_range_max""image_range_max""image_range_max": 128.0

'num_classes'"num_classes""num_classes""num_classes""num_classes""num_classes": 2

Die Netzwerkarchitektur erlaubt Änderungen der Bilddimensionen, verlangt aber, dass die Bildbreite 'image_width'"image_width""image_width""image_width""image_width""image_width" und Bildhöhe 'image_height'"image_height""image_height""image_height""image_height""image_height" Vielfache von 16 Pixel sind, woraus sich ein Minimalwert von 16 Pixeln ergibt.

'pretrained_dl_segmentation_compact.hdl'"pretrained_dl_segmentation_compact.hdl""pretrained_dl_segmentation_compact.hdl""pretrained_dl_segmentation_compact.hdl""pretrained_dl_segmentation_compact.hdl""pretrained_dl_segmentation_compact.hdl":

Dieses Neuronale Netzwerk ist besonders für feine Strukturen geeignet und ist effizient bezüglich des Speicherverbrauchs und der Laufzeit.

Die Netzwerkarchitektur erlaubt Änderungen der Bilddimensionen, verlangt aber eine minimale Bildbreite 'image_width'"image_width""image_width""image_width""image_width""image_width" von 21 Pixeln und eine minimale Bildhöhe von 'image_height'"image_height""image_height""image_height""image_height""image_height" 21 Pixeln.

'pretrained_dl_segmentation_enhanced.hdl'"pretrained_dl_segmentation_enhanced.hdl""pretrained_dl_segmentation_enhanced.hdl""pretrained_dl_segmentation_enhanced.hdl""pretrained_dl_segmentation_enhanced.hdl""pretrained_dl_segmentation_enhanced.hdl":

Dieses Neuronale Netzwerk hat mehr verborgene Layer als 'pretrained_dl_segmentation_compact.hdl'"pretrained_dl_segmentation_compact.hdl""pretrained_dl_segmentation_compact.hdl""pretrained_dl_segmentation_compact.hdl""pretrained_dl_segmentation_compact.hdl""pretrained_dl_segmentation_compact.hdl" und ist daher für Segmentierungsaufgaben in komplexeren Szenarien besser geeignet.

Die Netzwerkarchitektur erlaubt Änderungen der Bilddimensionen, verlangt aber eine minimale Bildbreite 'image_width'"image_width""image_width""image_width""image_width""image_width" von 47 Pixeln und eine minimale Bildhöhe von 'image_height'"image_height""image_height""image_height""image_height""image_height" 47 Pixeln.

Modelle für Deep OCR

Folgende vortrainierte Netzwerke stehen für die Deep OCR zur Verfügung:

'pretrained_deep_ocr_recognition.hdl'"pretrained_deep_ocr_recognition.hdl""pretrained_deep_ocr_recognition.hdl""pretrained_deep_ocr_recognition.hdl""pretrained_deep_ocr_recognition.hdl""pretrained_deep_ocr_recognition.hdl":

Dieses neuronale Netzwerk ist die vortrainierte Erkennungskomponente eines Deep OCR-Modells. Es ist konzipiert um Wörter auf Bildern zu erkennen, welche auf ein einzelnes Wort zugeschnitten sind. Dies ist die Erkennungskomponente von Deep OCR, welche nachtrainiert werden kann.

Das Neuronale Netzwerk erwartet Eingabebilder vom Typ real. Zusätzlich erfordert das Netzwerk spezifische Bildeigenschaften, welche über get_dl_model_paramget_dl_model_paramGetDlModelParamGetDlModelParamGetDlModelParamget_dl_model_param abgefragt werden können. Hier werden die Defaultwerte aufgelistet, mit welchen das Modell trainiert wurde:

'image_width'"image_width""image_width""image_width""image_width""image_width": 120

'image_height'"image_height""image_height""image_height""image_height""image_height": 32

'image_num_channels'"image_num_channels""image_num_channels""image_num_channels""image_num_channels""image_num_channels": 1

'image_range_min'"image_range_min""image_range_min""image_range_min""image_range_min""image_range_min": -1.0

'image_range_max'"image_range_max""image_range_max""image_range_max""image_range_max""image_range_max": 1.0

Die Netzwerkarchitektur erlaubt Änderungen der Bildbreite 'image_width'"image_width""image_width""image_width""image_width""image_width". Die Bildhöhe 'image_height'"image_height""image_height""image_height""image_height""image_height" kann nicht verändert werden. Der Parameter 'image_width'"image_width""image_width""image_width""image_width""image_width" ist sehr wichtig. Sein Wert kann verringert oder erhöht werden um sich an die zu erwartenden Wortlängen anzupassen, beispielsweise bedingt durch die durchschnittliche Zeichenbreite. Ein größerer Wert für 'image_width'"image_width""image_width""image_width""image_width""image_width" führt zu erhöhtem Speicher- und Laufzeitbedarf. Die Bildbreite 'image_width'"image_width""image_width""image_width""image_width""image_width" darf nach dem Training geändert werden.

Einlesen eines Modells im ONNX Format

ONNX Modelle können eingelesen werden, aber dabei gibt es gewisse Punkte zu beachten.

Einschränkungen

Wird ein ONNX Modell eingelesen, gelten folgende Einschränkungen:

Automatische Transformationen

Nach dem Einlesen eines ONNX Modells mit read_dl_modelread_dl_modelReadDlModelReadDlModelReadDlModelread_dl_model werden folgende Transformationen automatisch durchgeführt:

Unterstützte Operationen

ONNX Modelle mit den folgenden Operationen können von read_dl_modelread_dl_modelReadDlModelReadDlModelReadDlModelread_dl_model gelesen werden:

'Add':

Keine Einschränkungen.

'ArgMax':

Es gelten folgende Einschränkungen:

  • Attribut 'axis'"axis""axis""axis""axis""axis": Der Wert muss 1 sein.

  • Attribut 'keepdims'"keepdims""keepdims""keepdims""keepdims""keepdims": Der Wert muss 1 sein.

  • Attribut 'select_last_index'"select_last_index""select_last_index""select_last_index""select_last_index""select_last_index": Der Wert muss 0 sein.

'AveragePool':

Es gelten folgende Einschränkungen:

  • Attribut 'count_include_pad'"count_include_pad""count_include_pad""count_include_pad""count_include_pad""count_include_pad": Der Wert muss 0 sein.

'BatchNormalization':

Keine Einschränkungen.

'Clip':

Es gelten folgende Einschränkungen:

  • Attribut 'min'"min""min""min""min""min": Der Wert muss 0 sein.

  • Attribut 'max'"max""max""max""max""max": Der Wert muss größer als 0 und kleiner als die maximale float Zahl sein.

'Concat':

Keine Einschränkungen.

'Constant':

Es gelten folgende Einschränkungen:

  • Attribut 'sparse_value'"sparse_value""sparse_value""sparse_value""sparse_value""sparse_value": Das Attribut wird nicht unterstützt.

  • Attribut 'value'"value""value""value""value""value": Alle Einträge des Tensors müssen den gleichen Wert haben.

  • Attribut 'value_floats'"value_floats""value_floats""value_floats""value_floats""value_floats": Das Attribut wird nicht unterstützt.

  • Attribut 'value_ints'"value_ints""value_ints""value_ints""value_ints""value_ints": Das Attribut wird nicht unterstützt.

  • Attribut 'value_string'"value_string""value_string""value_string""value_string""value_string": Das Attribut wird nicht unterstützt.

  • Attribut 'value_strings'"value_strings""value_strings""value_strings""value_strings""value_strings": Das Attribut wird nicht unterstützt.

'Conv':

Es gelten folgende Einschränkungen:

  • Attribut 'pads'"pads""pads""pads""pads""pads": Padding Werte größer oder gleich der Kernel-Größe sind nicht unterstützt.

'DepthToSpace':

Es gelten folgende Einschränkungen:

  • Attribut 'mode'"mode""mode""mode""mode""mode": Der Wert muss 'CRD'"CRD""CRD""CRD""CRD""CRD" sein.

'Dropout':

Keine Einschränkungen.

'Gemm':

Es gelten folgende Einschränkungen:

  • Attribut 'alpha'"alpha""alpha""alpha""alpha""alpha": Der Wert muss 1 sein.

  • Attribut 'beta'"beta""beta""beta""beta""beta": Der Wert muss 1 sein.

  • Attribut 'transA'"transA""transA""transA""transA""transA": Der Wert muss 0 sein.

'GlobalAveragePool':

Keine Einschränkungen.

'GlobalMaxPool':

Es gelten folgende Einschränkungen:

  • Attribut 'dilations'"dilations""dilations""dilations""dilations""dilations": Der Wert muss 1 sein.

'LeakyRelu':

Keine Einschränkungen.

'LogSoftmax':

Es gelten folgende Einschränkungen:

  • Attribut 'axis'"axis""axis""axis""axis""axis": Der Wert muss 1 sein.

'LRN':

Keine Einschränkungen. Hinweis: Attribut 'size'"size""size""size""size""size" hat keinen Effekt.

'MaxPool':

Keine Einschränkungen.

'Mean':

Keine Einschränkungen.

'Mul':

Keine Einschränkungen.

'ReduceMax':

Es gelten folgende Einschränkungen:

  • Attribut 'axes'"axes""axes""axes""axes""axes": Der Wert muss 1 sein.

  • Attribut 'keepdims'"keepdims""keepdims""keepdims""keepdims""keepdims": Der Wert muss 1 sein.

'Relu':

Keine Einschränkungen.

'Resize':

Es gelten folgende Einschränkungen:

  • Attribut 'mode'"mode""mode""mode""mode""mode": Nur die Werte 'linear'"linear""linear""linear""linear""linear" oder 'bilinear'"bilinear""bilinear""bilinear""bilinear""bilinear" sind erlaubt.

  • Attribut 'coordinate_transformation_mode'"coordinate_transformation_mode""coordinate_transformation_mode""coordinate_transformation_mode""coordinate_transformation_mode""coordinate_transformation_mode": Nur die Werte 'pytorch_half_pixel'"pytorch_half_pixel""pytorch_half_pixel""pytorch_half_pixel""pytorch_half_pixel""pytorch_half_pixel" und 'align_corners'"align_corners""align_corners""align_corners""align_corners""align_corners" sind erlaubt.

  • Inputtensor 'roi'"roi""roi""roi""roi""roi": Wenn Werte gesetzt sind haben sie keinen Effekt auf die Inferenz.

  • Die Attribute 'cubic_coeff_a'"cubic_coeff_a""cubic_coeff_a""cubic_coeff_a""cubic_coeff_a""cubic_coeff_a", 'exclude_outside'"exclude_outside""exclude_outside""exclude_outside""exclude_outside""exclude_outside", 'extrapolation_value'"extrapolation_value""extrapolation_value""extrapolation_value""extrapolation_value""extrapolation_value", oder 'nearest_mode'"nearest_mode""nearest_mode""nearest_mode""nearest_mode""nearest_mode" haben keinen Effekt.

'Reshape':

Es gelten folgende Einschränkungen:

  • Wird nur dann unterstützt wenn es auf einen 'Initializer' angewandt wird und die Ausgabe direkt als Gewicht in einem Layer verwendet wird.

'Sigmoid':

Keine Einschränkungen.

'Softmax':

Es gelten folgende Einschränkungen:

  • attribute 'axis'"axis""axis""axis""axis""axis": Der Wert muss 1 sein.

'Sub':

Keine Einschränkungen.

'Sum':

Keine Einschränkungen.

Außerdem wird das ONNX Modellattribut 'metadata_props' unterstützt. Dieses wird im Modellparameter 'meta_data'"meta_data""meta_data""meta_data""meta_data""meta_data" gespeichert.

Ausführungsinformationen

Dieser Operator liefert ein Handle zurück. Es ist zu beachten, dass der Zustand einer Instanz dieses Handletyps durch bestimmte Operatoren geändert werden kann, obwohl das Handle als Eingabeparameter in diesen Operatoren verwendet wird.

Parameter

FileNameFileNameFileNameFileNamefileNamefile_name (input_control)  filename.read HTuplestrHTupleHtuple (string) (string) (HString) (char*)

Dateiname

Defaultwert: 'pretrained_dl_classifier_compact.hdl' "pretrained_dl_classifier_compact.hdl" "pretrained_dl_classifier_compact.hdl" "pretrained_dl_classifier_compact.hdl" "pretrained_dl_classifier_compact.hdl" "pretrained_dl_classifier_compact.hdl"

Werteliste: 'initial_dl_anomaly_large.hdl'"initial_dl_anomaly_large.hdl""initial_dl_anomaly_large.hdl""initial_dl_anomaly_large.hdl""initial_dl_anomaly_large.hdl""initial_dl_anomaly_large.hdl", 'initial_dl_anomaly_medium.hdl'"initial_dl_anomaly_medium.hdl""initial_dl_anomaly_medium.hdl""initial_dl_anomaly_medium.hdl""initial_dl_anomaly_medium.hdl""initial_dl_anomaly_medium.hdl", 'pretrained_deep_ocr_recognition.hdl'"pretrained_deep_ocr_recognition.hdl""pretrained_deep_ocr_recognition.hdl""pretrained_deep_ocr_recognition.hdl""pretrained_deep_ocr_recognition.hdl""pretrained_deep_ocr_recognition.hdl", 'pretrained_dl_3d_gripping_point.hdl'"pretrained_dl_3d_gripping_point.hdl""pretrained_dl_3d_gripping_point.hdl""pretrained_dl_3d_gripping_point.hdl""pretrained_dl_3d_gripping_point.hdl""pretrained_dl_3d_gripping_point.hdl", 'pretrained_dl_anomaly_global_context.hdl'"pretrained_dl_anomaly_global_context.hdl""pretrained_dl_anomaly_global_context.hdl""pretrained_dl_anomaly_global_context.hdl""pretrained_dl_anomaly_global_context.hdl""pretrained_dl_anomaly_global_context.hdl", 'pretrained_dl_classifier_alexnet.hdl'"pretrained_dl_classifier_alexnet.hdl""pretrained_dl_classifier_alexnet.hdl""pretrained_dl_classifier_alexnet.hdl""pretrained_dl_classifier_alexnet.hdl""pretrained_dl_classifier_alexnet.hdl", 'pretrained_dl_classifier_compact.hdl'"pretrained_dl_classifier_compact.hdl""pretrained_dl_classifier_compact.hdl""pretrained_dl_classifier_compact.hdl""pretrained_dl_classifier_compact.hdl""pretrained_dl_classifier_compact.hdl", 'pretrained_dl_classifier_enhanced.hdl'"pretrained_dl_classifier_enhanced.hdl""pretrained_dl_classifier_enhanced.hdl""pretrained_dl_classifier_enhanced.hdl""pretrained_dl_classifier_enhanced.hdl""pretrained_dl_classifier_enhanced.hdl", 'pretrained_dl_classifier_mobilenet_v2.hdl'"pretrained_dl_classifier_mobilenet_v2.hdl""pretrained_dl_classifier_mobilenet_v2.hdl""pretrained_dl_classifier_mobilenet_v2.hdl""pretrained_dl_classifier_mobilenet_v2.hdl""pretrained_dl_classifier_mobilenet_v2.hdl", 'pretrained_dl_classifier_resnet18.hdl'"pretrained_dl_classifier_resnet18.hdl""pretrained_dl_classifier_resnet18.hdl""pretrained_dl_classifier_resnet18.hdl""pretrained_dl_classifier_resnet18.hdl""pretrained_dl_classifier_resnet18.hdl", 'pretrained_dl_classifier_resnet50.hdl'"pretrained_dl_classifier_resnet50.hdl""pretrained_dl_classifier_resnet50.hdl""pretrained_dl_classifier_resnet50.hdl""pretrained_dl_classifier_resnet50.hdl""pretrained_dl_classifier_resnet50.hdl", 'pretrained_dl_edge_extractor.hdl'"pretrained_dl_edge_extractor.hdl""pretrained_dl_edge_extractor.hdl""pretrained_dl_edge_extractor.hdl""pretrained_dl_edge_extractor.hdl""pretrained_dl_edge_extractor.hdl", 'pretrained_dl_segmentation_compact.hdl'"pretrained_dl_segmentation_compact.hdl""pretrained_dl_segmentation_compact.hdl""pretrained_dl_segmentation_compact.hdl""pretrained_dl_segmentation_compact.hdl""pretrained_dl_segmentation_compact.hdl", 'pretrained_dl_segmentation_enhanced.hdl'"pretrained_dl_segmentation_enhanced.hdl""pretrained_dl_segmentation_enhanced.hdl""pretrained_dl_segmentation_enhanced.hdl""pretrained_dl_segmentation_enhanced.hdl""pretrained_dl_segmentation_enhanced.hdl"

Dateiendung: .hdl, .onnx

DLModelHandleDLModelHandleDLModelHandleDLModelHandleDLModelHandledlmodel_handle (output_control)  dl_model HDlModel, HTupleHHandleHTupleHtuple (handle) (IntPtr) (HHandle) (handle)

Handle des Deep Learning-Modells.

Ergebnis

Sind die Parameterwerte korrekt, dann liefert read_dl_modelread_dl_modelReadDlModelReadDlModelReadDlModelread_dl_model den Wert 2 (H_MSG_TRUE). Gegebenenfalls wird eine Fehlerbehandlung durchgeführt.

Nachfolger

set_dl_model_paramset_dl_model_paramSetDlModelParamSetDlModelParamSetDlModelParamset_dl_model_param, get_dl_model_paramget_dl_model_paramGetDlModelParamGetDlModelParamGetDlModelParamget_dl_model_param, apply_dl_modelapply_dl_modelApplyDlModelApplyDlModelApplyDlModelapply_dl_model, train_dl_model_batchtrain_dl_model_batchTrainDlModelBatchTrainDlModelBatchTrainDlModelBatchtrain_dl_model_batch, train_dl_model_anomaly_datasettrain_dl_model_anomaly_datasetTrainDlModelAnomalyDatasetTrainDlModelAnomalyDatasetTrainDlModelAnomalyDatasettrain_dl_model_anomaly_dataset

Alternativen

create_dl_model_detectioncreate_dl_model_detectionCreateDlModelDetectionCreateDlModelDetectionCreateDlModelDetectioncreate_dl_model_detection

Literatur

Open Neural Network Exchange (ONNX), https://onnx.ai/

Modul

Foundation. Dieser Operator verwendet dynamische Lizensierung (siehe ``Installation Guide''). Welches der folgenden Module benötigt wird hängt von der Anwendung des Operators ab:
3D Metrology, OCR/OCV, Deep Learning Inference