3D-Vision-Technologie - 3D-Matching

3D-Matching in der Praxis
Video: Roboter nutzt 3D–Matching von MVTec zur Bestückung

Mit 3D-Matching ist es sogar mit nur einer Kamera oder einem Tiefensensor möglich, beliebige 3D-Objekte zu erkennen und ihre 3D-Lage im Raum zu bestimmen.

Diese Technologie wird vor allem im 3D-Alignment verwendet, um mit Hilfe von gewöhnlichen 2D-Bildern oder 3D-Abstandsbildern die 3D-Lage (Lage, Position und Orientierung) eines Objekts zu bestimmen. Dies ist u.a. im Bereich Automobilbau & Robotik, bei Pick-and-Place-Anwendungen (vgl. nebenstehendes Video) oder dem „Griff in die Kiste“ der Fall.

Der generische Box Finder in HALCOn findet Boxen verschiedener Größen ohne ein Modell trainieren zu müssen.
Der generische Box Finder lokalisiert Boxen unterschiedlicher Größe ohne ein Modell trainieren zu müssen.
Für Pick-and-Place-Anwendungen stellt HALCON den generischen Box Finder zur Verfügung. Dieses Feature ermöglicht es, in einem vordefinierten Raum mit bestimmter Höhe, Breite und Tiefe Boxen unterschiedlicher Größe zu lokalisieren, ohne dass ein Modell trainiert werden muss. Dies macht viele Anwendungen deutlich effizienter – vor allem in der Logistik- und Pharmaindustrie, wo oft Boxen in den unterschiedlichsten Größen eingesetzt werden. Eine weitere Anwendungsmöglichkeit ist das Messen geometrischer Eigenschaften und die Lokalisierung von Defekten auf komplexen 3D-Objekten nach Durchführung des 3D-Alignment.
3D-Matching
Die 3D-Position und Ausrichtung des Objekts wird durch Matching mehrerer 2D-Ansichten eines bereits bekannten 3D-Objekts bestimmt.
Um die 3D-Lage anhand von gewöhnlichen Bildern zu bestimmen, kommt formbasiertes 3D-Matching zum Einsatz: Dieses erweitert die Anwendungsmöglichkeiten des formbasierten Matchings von 2D zu 3D, indem mehrere 2D-Ansichten des dreidimensionalen Objekts (repräsentiert durch das CAD-Modell) verwendet werden. Zur Bestimmung der 3D-Lage mit Hilfe von 3D-Abstandsbildern wird oberflächenbasiertes 3D-Matching verwendet. Diese Technologie kombiniert Daten aus 3D-Punktwolken mit Kanteninformationen aus 3D-Abstandsbildern. Dadurch ermöglicht es eine robuste Lagebestimmung auch bei glatten Oberflächen ohne markante Kanten, die in gewöhnlichen Bildern keine signifikanten Grauwert-Kanten zeigen würden. Um eine möglichst hohe zu erzielen, bieten beide Methoden eine Feinjustierung der Position im dreidimensionalen Raum an.