06.05.2020

Im Doppel erfolgreich: „Sehende“ Roboter erobern die Automatisierung
Kollaborierende Roboter mit Vision Sensoren einfach steuern

Kollaborierende Roboter, sogenannte Cobots, unterstützen die Automatisierung von Handarbeit. Dabei senken die Cobots von Universal Robots mit ihrer einfachen Programmierung die Einstiegshürde. Kombiniert mit VeriSens Vision Sensoren bilden beide ein unschlagbares Doppel bei der einfachsten Lösung von Vision Guided Robotics Anwendungen.

Ich sehe, was ich mache – für Menschen einfach, für Roboter eine Herausforderung. Um Robotik-Applikationen in immer mehr Bereichen der Automatisierung zu verankern, nimmt Bildverarbeitung eine Schlüsselrolle ein. Vision Sensoren wie die Baumer VeriSens Modelle XF900 und XC900 können hier entscheidend unterstützen. Sie vereinen ein komplettes Bildverarbeitungssystem in einem kompakten, industrietauglichen Gehäuse und lassen sich zudem gut parametrieren. Bildverarbeitung wird für die Anwender damit deutlich einfacher. Es ist daher naheliegend, einen VeriSens Vision Sensor und einen Universal Robots Cobot zu einem „sehenden" Roboter zu vereinen, der einfacher, schneller und genauer einzurichten ist, als bisherige Lösungen.

Welcher Nutzen steckt in Bildverarbeitung für Roboter?
Roboter orientieren sich an eingelernten, festen Wegpunkten und fahren diese nacheinander ab. Bildverarbeitung erweitert diese Funktionalität enorm. Ein einfach mitgeführter Vision Sensor versetzt den Roboter bereits in die Lage, Objekte sicher zu identifizieren. Gleichzeitig oder alternativ ist auch eine Qualitätskontrolle realisierbar, die der Roboter durch Verfahren des Sensors an festgelegten Positionen unterstützt. Mit der Nutzung der Daten im Roboterprogramm können Objekte anschließend auch automatisch sortiert werden.


Die „Königsdisziplin“ ist jedoch das Steuern des Roboters selbst, bei der die Bildverarbeitung die Position von Objekten ermittelt, an den Roboter übergibt und ihm damit ein freies Greifen jenseits bisher fester Wegpunkte ermöglicht. Objekte können dabei in beliebiger Orientierung auf einer Fläche liegen. Position, Rotation und optional weitere Daten wie deren Lage, werden durch die Bildverarbeitung ermittelt und übergeben.

TR_1_VeriSens-UP_Bild1.jpg
Die smarten VeriSens Vision Sensoren XF900 und XC900 steuern die kollaborierenden Roboter (Cobots) von Universal Robots schon nach wenigen Minuten Einrichtung.

Schnittstelle zwischen VeriSens und Universal Robot
Ähnlich dem von Smartphones bekannten „App-Konzept“ nutzt Universal Robots für zertifiziertes Zubehör sogenannte Caps: Software-Plug-ins, die Anbauten wie einen VeriSens Vision Sensor in der Universal Robots Programmierumgebung PolyScope nutzbar machen. 


Die Bildverarbeitungsaufgabe selbst wird komplett und wie gewohnt über die VeriSens Application Suite parametriert – unabhängig vom Cobot in der dafür am besten geeigneten Umgebung.


Die Funktionen des VeriSens URCaps sind generisch und adressieren so alle denkbaren Applikationen einschließlich mitgeführter oder stationärer Anordnung des Vision Sensors.
Neben der im URCap abgebildeten Routine zur Installation, werden für die Programmierung des Universal Robot lediglich zwei zusätzliche „Knoten“ (Kommandos) benötigt, mit denen die Bildverarbeitung Eingang in die Roboterprogrammierung findet. Für die Objektidentifizierung oder Qualitätskontrolle genügt zum Beispiel bereits ein einziger Knoten, um im Roboterprogramm einen Bildverarbeitungsjob auf dem VeriSens auszulösen und die Ergebnisse als Variable im Programmablauf zur Entscheidungsfindung bereitzustellen. Damit kann der Cobot nun bereits Objekte sortieren.


Für das bildbasierte Greifen kommt der zweite Knoten hinzu, der die festen Wegpunkte durch dynamische, bildbasierte ergänzt. Bei der einfachen Realisierung von Pick-und-Place Applikationen hilft optional ein speziell dafür geschaffener Assistent.

TR_1_VeriSens-UP_Bild2.png
Pick-and-Place Programmbeispiel: Nur zwei zusätzliche Kommandos halten den Programmablauf übersichtlich.

Der Clou mit der automatischen Kalibrierung
Roboter und Vision Sensor arbeiten in eigenen Koordinatensystemen, was funktionell erst bei der Übergabe von Objektpositionen vom VeriSens an den Cobot relevant wird. Die Koordinaten des Vision Sensors müssen umgerechnet werden, um dem Roboterkoordinatensystem zu entsprechen. Die Ermittlung der notwendigen Koordinatentransformation wurde bisher als „Hand-Auge-Kalibrierung“ durch das mehrfache manuelle Positionieren des Cobots mit einer Tastspitze auf einem speziellen Kalibriertarget gelöst. In vielen Einzelschritten wird so eine vom Hersteller vorgegebene Prozedur durchlaufen. Dies ist mühsam und durch den händischen Eingriff, im Sinne der menschlichen Steuerung der Tastspitze, auch ungenau und fehleranfällig.


Mit dem zum Patent angemeldeten SmartGrid geht Baumer für seine VeriSens Vision Sensoren den neuen Weg einer automatischen Kalibrierung – einem Quantensprung beim Koordinatenabgleich. Der Clou liegt im intelligenten Bitmuster, das sich im üblichen Schachbrett-Format versteckt. Es liefert wertvolle Zusatzinformationen, die VeriSens als intelligentes Bildverarbeitungsgerät lesen kann. Eine dieser Informationen ist die Position des Vision Sensors über dem Muster. Da der Cobot seine Koordinaten immer kennt, genügen wenige Linear- und Rotationsbewegungen, um die Koordinatensysteme automatisch miteinander abzugleichen. Diese Prozedur ist nicht nur sehr genau und frei von manuellen Fehlern – sie ist auch ganz einfach am Touchscreen des Cobots durchführbar.

TR_1_VeriSens-UP_Bild3.jpg
Das innovative und zum Patent angemeldete SmartGrid beinhaltet im Schachbrettmuster ein intelligentes Bitmuster, dass vom VeriSens erkannt wird und den automatischen Abgleich der Koordinatensysteme unterstützt.

2D-Vison Sensor für 3D-Roboter
Das Finden von Objekten ist aus Sicht der Koordinaten gelöst. Per SmartGrid wird jedoch viel mehr erreicht: VeriSens nutzt auch das Raster, um ein ideales Bild zu lernen. Die Vision Sensoren können anschließend aufgenommene Bilder in Echtzeit entzerren, um u.a. die Objektiv-Verzeichnung zu korrigieren. Da das Bitmuster auch Daten zur Größe vom jeweilig verwendeten SmartGrid liefert, liegen für VeriSens nun alle Informationen zur Skalierung vor. Eine Umrechnung in Weltkoordinaten ist damit bereits automatisch eingestellt.


Das SmartGrid unterstützt zusätzlich eine halbautomatische Z-Kalibrierung, mit der VeriSens seine Position im Raum lernt und die Daten aus der Bildentzerrung auch im Raum anwenden kann. Damit wird eine letzte Herausforderung für Vision Guided Robotics gelöst: Der 2D-Vision Sensor muss einem 3D-Roboter Daten liefern. Es wäre nicht sehr nutzerfreundlich nur die Koordinaten einer einzigen Ebene, der Bildebene, nutzen zu können. Gerade ein Roboter benötigt auch Koordinaten in anderen Ebenen der Z-Achse, z.B. für den Greifer-Zugriff oder zur Erkennung wichtiger Markierungen. Dank Z-Kalibrierung ist die automatische Anpassung der Koordinaten in anderen „Höhen“ möglich.


Mit diesem innovativen Ansatz des automatischen Koordinatenabgleichs, der automatisieren Echtzeit-Bildentzerrung, der Umrechnung in Weltkoordinaten und Z-Kalibrierung, sind Vision Guided Robotics Anwendungen nun für viele Anwender einfach realisierbar – ganz im Sinne des obersten Entwicklungsziels der VeriSens Vision Sensoren: Beste Bedienbarkeit am Markt.


Pressedownload


Weiterführende Informationen

Pressekontakt
Nach oben