Wie Kameras mit Visual SLAM sehen können

5 Min.
3D-Illustration eines Lagerhauses, mit Regalen auf der linken und rechten Seite, die voll mit Stapeln von braunen Kartons sind. In der Mitte, zwischen den Regalen, bewegt sich ein gelb-schwarzer, flacher Roboter, auf dem ein solcher Karton steht, der durch den Gang transportiert wird.

Wie kann ein Roboter erkennen, ob er mit etwas zusammenstossen wird? Nun, technisch gesehen geht das eigentlich nicht, weil Roboter je keine Augen haben. Aber sie sind in der Lage, durch eine Kombination von verschiedenen Technologien zu berechnen, wo sie sich im Raum befinden. Das ist zwar nicht wirklich „Sehen“, aber es ist ziemlich nah dran. Wenn man etwas mehr darüber nachdenkt, ist es auch unglaublich cool. Denn ohne jede Art von Vision ist auch der intelligenteste Roboter nutzlos, nicht wahr?

Aus diesem Grund ist die Robotik auch heute noch eine der grössten technologischen Herausforderungen. Sie erfordert eine Kombination aus vielen verschiedenen Fachgebieten. Das geht von mehreren Disziplinen der Robotik, über Steuerungstechnik, Maschinenbau und Elektrotechnik bis hin zu den Bereichen Softwareentwicklung, Werkstoffe, Mechatronik und mehr. Jedes Element muss reibungslos im Ganzen funktionieren. Das ist ein überaus empfindliches Gleichgewicht. Die Art und Weise, wie sich ein Roboter bewegt, hängt zum Beispiel von den Materialien ab, aus denen er gebaut ist. Ausserdem spielt das Zusammenwirken der einzelnen Komponenten, womit sie sich bewegen und wie sie angetrieben werden, eine Rolle. Wenn sich aber ein Roboter ganz unabhängig bewegen soll, wie kann er das tun, wenn er nicht „sehen“ kann, wohin er geht?

Natürlich sind optische und bildgebende Technologien unser Spezialgebiet. Es ist also wenig überraschend, dass Canon schon seit geraumer Zeit an diesem speziellen Gebiet der Robotik arbeitet. Schon mehr als dreissig Jahre, um genau zu sein. Heute heisst das „Visual SLAM“. Das ist schon etwas ironisch, wenn man bedenkt, dass diese Technologie genau das verhindern soll, nämlich mit irgendetwas „zusammenzustossen“. SLAM oder weniger einprägsam, aber genauer, „Simultaneous Localisation and Mapping“ (gleichzeitige Verortung und Kartierung) ist eine Technologie, die gleichzeitig die Position eines Roboters in der Umgebung und ihre Struktur einschätzt. Das ursprüngliche Visual SLAM-System wurde entwickelt, um reale und virtuelle Welten in einem so genannten Head-mounted Display zu verschmelzen, was wir heute als Mixed Reality kennen. Heute kann Visual SLAM für alle Arten von automatisierten Aufgaben in Branchen wie der Fertigung, dem Gastgewerbe, dem Gesundheitswesen und dem Bauwesen eingesetzt werden.

Ein Krankenhauszimmer mit einem Krankenbett. Neben dem Bett steht ein Infusionsständer. Auf der anderen Seite steht ein blauer Kunststoffschrank mit einer Schublade. Darauf befindet sich ein Telefon. Links vom Bett befindet sich ein bodentiefes Fenster, durch das Licht fällt.

„Visual SLAM könnte in medizinischen Einrichtungen eingesetzt werden, um Lebensmittel und Medikamente dort auszuliefern, wo Hochrisikopatienten ein absolutes Minimum an Kontakt haben sollten, um möglichst sicher zu sein.“

Wie funktioniert Visual SLAM?

Autonome Transportsysteme und autonome mobile Roboter sind bereits ein vertrauter Anblick in Lagern und Logistikbetrieben. Oft werden sie hier mit Hilfe einer auf dem Boden angebrachten Magnetstreifenspur geführt. Wie man sich vorstellen kann, ist das recht teuer, erfordert Zeit für die Installation und nimmt dem System jegliche Flexibilität. Die autonomen Transportsysteme können sich nur auf einer festen Route fortbewegen. Was ist aber, wenn die Route geändert werden muss? Oder was soll man tun, wenn ein Unternehmen in der Lage sein muss, seinen Betrieb schnell umzustellen? Es geht kein Weg drumherum: In einer sich immer schneller verändernden Welt ist ein flexibler Ansatz die beste Lösung.

Diese Lösung stellen die beiden Arten von SLAM dar. Die erste ist LiDAR (Light Detection and Ranging oder übersetzt Lichterkennung und Entfernungsmessung). LiDAR arbeitet mit Laserimpulsen, um Entfernungen zu messen und die Form der umgebenden Strukturen zu erkennen. LiDAR zeichnet sich dadurch aus, dass es auch in schwach beleuchteten Umgebungen funktioniert. Allerdings werden hier in der Regel Sensoren verwendet, die nur eine horizontale Abtastung durchführen. Das schränkt die Informationen, die ein Roboter erhalten kann, zwangsläufig auf zweidimensionale Oberflächen ein. Das liegt jedoch nicht daran, dass dreidimensionales Arbeiten unmöglich wäre – es ist nur unglaublich teuer. Es gibt noch ein weiteres Problem von LiDAR: Wenn nicht genügend 3D-Objekte vom Roboter „gesehen“ werden, müssen zur Orientierung weitere auf der Route positioniert werden.

Visual SLAM (Simultaneous Localization And Mapping – Gleichzeitige Verortung und Kartierung) von Canon hingegen verwendet anstelle von Lasern Kameras als Sensoren. Das ist billiger als LiDAR, ermöglicht aber dennoch hochpräzise Messungen. Durch eine Kombination von Videobildern und einer proprietären Analysetechnik werden die 3D-Formen von Strukturen identifiziert. Diese Informationen bilden dann zusammen das „L“ für Localisation = Verortung im Namen SLAM. Erstaunlicherweise funktioniert das sogar bei zweidimensionalen Objekten wie z.B. Postern an Wänden. Darum müssen keine zusätzlichen 3D-Objekte installiert werden, wie es bei LiDAR der Fall wäre. Das bedeutet aber auch, dass Visual SLAM an viel mehr Orten und in viel mehr Situationen eingesetzt werden kann. Und da es auch für die Bilderkennung verwendet wird, gibt für die Nutzung noch viele weitere Möglichkeiten wie z.B. für Drohnen oder Serviceroboter.

Canon arbeitet schon seit geraumer Zeit an diesem speziellen Bereich der Robotik. Schon mehr als dreissig Jahre, um genau zu sein.“

Wie wird eine Veränderung verstanden?

Da die Umgebungen, in denen autonome Transportsysteme und autonome mobile Roboter operieren, sich schnell verändern können, muss Visual SLAM in der Lage sein, sich intelligent anzupassen. Die von der linken und rechten Kamera aufgenommenen Bilder werden kontinuierlich von der „Vision-based Navigation Software for AGV“ von Canon verarbeitet. Damit werden die Bilder in Echtzeit in 3D-Karten umgewandelt und automatisch aktualisiert. Dafür muss eine enorme Menge an präzisen Informationen verarbeitet werden. Allerdings ist die Software so konzipiert, dass diese Konvertierung selbst auf einem Low-End-Computer in Echtzeit durchgeführt werden kann. Mit dieser konstanten Erfassung und Verarbeitung der Bilder können Roboter mit Visual SLAM praktisch ganz von selbst „navigieren“.

Das ist natürlich für Roboter in allen möglichen Bereichen ideal – insbesondere aber dort, wo Menschen einer Gefahr ausgesetzt sein könnten. Beispiele wären hier die Beförderung von Gefahrgut in Chemieanlagen oder überall dort, wo eine „berührungslose“ Beförderung von Produkten für die Sicherheit von Menschen erforderlich ist. Es gibt aber auch Überlegungen, Visual SLAM in medizinischen Einrichtungen einzusetzen, um Lebensmittel und Medikamente dort auszuliefern, wo Hochrisikopatienten ein absolutes Minimum an Kontakt haben sollten, um möglichst sicher versorgt und behandelt zu werden. Solche Umgebungen sind jedoch dynamisch und schnelllebig, so dass hier die Fähigkeit eines Roboters, während der Arbeit zu „lernen“, von entscheidender Bedeutung ist.

Wie bei allen interdisziplinären Technologien eröffnen sich mit dem Fortschritt bei einem Element Möglichkeiten für andere. Das können wir natürlich auch beim „Sehen“ von Robotern erwarten. Schliesslich werden unsere Optik-, Sensor- und Bildverarbeitungstechniken durch die Entwicklung unserer Kameras und Objektive immer weiter optimiert. Die Entwicklung von „Augen“ für Roboter, die für alle Branchen erschwinglich und zugänglich sind, ist nur ein weiterer Schritt hin zu automatisierten Lösungen, die unser tägliches Leben sicherer, komfortabler und bequemer machen.

Mehr Informationen über die Canon Visual SLAM-Technologie finden Sie auf der globalen Canon Website.

Weitere Geschichten

  • Eine Hand bedient den Touchscreen des Canon imageFORCE C7165-Multifunktionssystems.

    Design im Detail für die Menschen und den Planeten

    Bei der Entwicklung von Canon-Produkten zählt jedes noch so kleine Detail. Unsere Ingenieure prüfen jeden Millimeter auf Benutzerfreundlichkeit, Umweltverträglichkeit und Funktion.

  • IPSC_HEADER

    Den Weg zu lebensrettenden Stammzellen ebnen

    Wir haben uns mit Dr. Shinya Yamanaka und seinem Team am CiRA in Japan zusammengetan. Zusammen forschen wir daran, das lebensrettende Potenzial einer besonderen Art von Stammzellen zu nutzen.

  • A mess of plastic bottles, cups, containers, lids and caps of assorted colours, all spread out across a table and photographed from above

    Das Plastik-Paradoxon

    Bei Kunststoffen sind wir sehr aufmerksam: Wir verwenden nur das, was unbedingt notwendig ist. Außerdem investieren wir in neue, innovative Verfahren, um der Kreislaufwirtschaft und unserer Verantwortung gerecht zu werden.

  • A smiling woman in a darkened room looks at her phone and the light from the screen gently illuminates her face.

    Leuchtende Gesichter: Das nicht ganz so geheime Geheimnis des Handy-Displays.

    Wenn wir das vertraute Leuchten unseres Handy-Displays betrachten, können wir uns schlecht vorstellen, dass es viel mit unserem Drucker oder unserer Kamera gemeinsam hat. Hier erfahren Sie, warum das so ist.