Zum Inhalt springen

Documentation

Wahrnehmung für die Agrarrobotik*

I. Einführung

Die Wahrnehmung bezeichnet die Gesamtheit der Mechanismen, die es einem System, sei es biologisch (menschlich) oder künstlich (Roboter), ermöglichen, Informationen über seine Umgebung zu erfassen und zu interpretieren.

Für einen Agrarroboter umfasst sie die Prozesse, durch die der Roboter die Daten seiner Sensoren sammelt, verarbeitet und nutzt, um eine kohärente Darstellung seiner Umgebung und seines eigenen Zustands zu erstellen. Dieser Schritt ist entscheidend, um ihm zu ermöglichen, sich zu lokalisieren, mit seiner Umgebung zu interagieren und autonom zu navigieren.

Um zu verstehen, wie diese Aufgabe durchgeführt wird, ist es notwendig, die verwendeten Hauptsensoren vorzustellen und dann die beiden umgesetzten Wahrnehmungsformen zu unterscheiden:
die exterozeptive Wahrnehmung, die sich auf die äußere Umgebung bezieht (Hindernisse, Kulturen, Gelände usw.);

und die propriozeptive Wahrnehmung, die mit dem inneren Zustand des Roboters zusammenhängt (Ausrichtung, Geschwindigkeit, Beschleunigung usw.).


II. Die von Agrarrobotern verwendeten Sensoren

Wie in der Abbildung 1 unten dargestellten Abbildung gezeigt, können die von Agrarrobotern verwendeten Sensoren in zwei große Kategorien unterteilt werden: propriozeptive Sensoren, die den inneren Zustand des Roboters messen, und exterozeptive Sensoren, die die Elemente seiner Umgebung messen.

Von Agrarrobotern verwendete Sensoren: Sie können in zwei große Kategorien unterteilt werden: propriozeptive Sensoren, die den inneren Zustand des Roboters messen, und exterozeptive Sensoren, die Informationen über die äußere Umgebung sammeln.

Abbildung 1: Von Agrarrobotern verwendete Sensoren
Sie können in zwei große Kategorien unterteilt werden: propriozeptive Sensoren, die den inneren Zustand des Roboters messen, und exterozeptive Sensoren, die Informationen über die äußere Umgebung sammeln.
Zu den allgemein verwendeten propriozeptiven Sensoren gehören:
  • Die inertiale Messeinheit (IMU: Inertial Motion Unit): Sie ist eine Einheit, die Informationen wie die lineare und die Winkelbeschleunigung des Roboters liefern kann.
  • Die Encoder: Dies sind Sensoren, die die Radrotation messen.
Diese Informationen ermöglichen es, mithilfe von Wahrnehmungsalgorithmen die Position des Fahrzeugs (Position und Ausrichtung) zu schätzen.

Bei den exterozeptiven Sensoren finden sich insbesondere:

  • Das GNSS (Global Navigation Satellite System)zum Beispiel ein GPS (Global Positioning System): Es verwendet Satellitensignale, um die Position des Roboters im Verhältnis zu einem festen Erdbezugssystem zu bestimmen. Seine Genauigkeit kann durch die Umgebung beeinträchtigt werden (z. B. durch die Überdachung). Unter normalen Bedingungen bietet es eine Genauigkeit im Meterbereich. Wenn es mit einer terrestrischen Referenzstation verbunden ist, wird die Genauigkeit zentimetergenau: Man spricht dann von GPS RTK (Real Time Kinematic).
  • Die Kamera: Dieser Sensor liefert ein Bild der Umgebung des Roboters. Die RGB-D-Kameras (Red Green
  • Blue - Distance) liefern sowohl ein Farbbild als auch die Entfernung der Objekte zum Roboter. Sie sind in der Landwirtschaft am weitesten verbreitet. Ihr Hauptnachteil bleibt ihre geringe Robustheit gegenüber störenden Elementen wie Regen, Schnee oder Staub, die das Objektiv verdecken können.
  • Der LIDAR (Light Detection And Ranging): Im Gegensatz zur Kamera ist er robust gegenüber schlechten Wetterbedingungen und Staub. Durch das Senden und Empfangen von Lichtstrahlen erzeugt er eine Punktwolke, die die Umgebung um den Roboter darstellt, und ermöglicht so dessen Kartierung. Allerdings ist er etwa fünfmal teurer als eine Kamera.


III. Ansätze zur propriozeptiven Wahrnehmung

Wahrnehmungsalgorithmen ermöglichen es im Wesentlichen, den Zustand des Roboters zu schätzen, insbesondere seine Lokalisierung (Position und Ausrichtung) im Verhältnis zu einem festen Erdbezugssystem. Einige Algorithmen verwenden ausschließlich die Daten der propriozeptiven Sensoren, um die Position des Roboters zu bestimmen, man spricht dann von "dead reckoning". Da diese Informationen jedoch intern im Roboter sind, führt ihre individuelle Nutzung zur Lokalisierung im Verhältnis zu einem externen Bezugssystem zu Ergebnissen, deren Genauigkeit schnell abnimmt.

Um die Genauigkeit zu verbessern, kombiniert man die Informationen der Sensoren, was eine zuverlässigere Lokalisierung ermöglicht. Zu den am häufigsten verwendeten Algorithmen für diese Art der Fusion gehört der Kalman-Filter.


Prinzip eines Kalman-Filters: Es basiert auf zwei Hauptschritten. Der erste ist die Vorhersage, die den zukünftigen Zustand des Roboters aus seinem vorherigen Zustand und seinem Entwicklungsmodell schätzt. Der zweite ist die Korrektur, bei der die von den Sensoren erhaltenen Messungen verwendet werden, um die durchgeführte Vorhersage anzupassen und zu verfeinern, wodurch eine genauere Schätzung des tatsächlichen Zustands des Roboters ermöglicht wird.

Abbildung 2: Prinzip eines Kalman-Filters

Es basiert auf zwei Hauptschritten. Der erste ist die Vorhersage, die den zukünftigen Zustand des Roboters aus seinem vorherigen Zustand und seinem Entwicklungsmodell schätzt. Der zweite ist die Korrektur, bei der die von den Sensoren erhaltenen Messungen verwendet werden, um die durchgeführte Vorhersage anzupassen und zu verfeinern, wodurch eine genauere Schätzung des tatsächlichen Zustands des Roboters ermöglicht wird.

Der Kalman-Filter ist ein rekursiver Algorithmus, der es einem Roboter ermöglicht, seinen Zustand (Position und Ausrichtung) zu schätzen, indem er die Messungen seiner Sensoren mit einem Entwicklungsmodell kombiniert, das vorhersagt, wo sich der Roboter befinden sollte.
Wie in der Abbildung 2 oben gezeigten Abbildung dargestellt, umfasst dieser Algorithmus zwei Hauptschritte:
  • Vorhersage: Dieser Schritt verwendet den vorherigen Zustand des Roboters und das Entwicklungsmodell, um seinen zukünftigen Zustand vorherzusagen.
  • Korrektur: In diesem Schritt wird der vorhergesagte Zustand mit den von den Sensoren erhaltenen Messungen verglichen und die Schätzung des Zustands angepasst, wodurch eine genauere Lokalisierung des Roboters ermöglicht wird.


IV. Ansätze zur exterozeptiven Wahrnehmung

Diese Algorithmen basieren auf den exterozeptiven Sensoren, die neben ihrem Beitrag zur propriozeptiven Wahrnehmung (wie im Fall der Lokalisierung durch GNSS RTK) zur Darstellung der Umgebung verwendet werden.

Wie in der Abbildung 3 unten gezeigten Abbildung hat die exterozeptive Wahrnehmung für einen Agrarroboter also die Hauptaufgabe, die Umgebung des Roboters zu modellieren und diesen in dieser Umgebung zu positionieren.

Prinzip der exterozeptiven Wahrnehmung: Verwendung von Ansätzen, die auf künstlicher Intelligenz oder geometrischer Analyse basieren, um die nützliche Umgebung des Roboters anhand von Bildern, Punktwolken und/oder seiner GNSS-Position zu modellieren

Abbildung 3: Prinzip der exterozeptiven Wahrnehmung

Verwendung von Ansätzen, die auf künstlicher Intelligenz oder geometrischer Analyse basieren, um die nützliche Umgebung des Roboters anhand von Bildern, Punktwolken und/oder seiner GNSS-Position zu modellieren.

Dazu können zwei große Ansätze verwendet werden:
  • Ansatz basierend auf künstlicher Intelligenz: Ein neuronales Netzwerk analysiert die Informationen der Sensoren (Bilder, Punktwolken), identifiziert und klassifiziert die verschiedenen Elemente in der Umgebung (interessante Pflanzen, Unkräuter, Hindernisse, Menschen usw.) und erzeugt dann eine strukturierte Kartierung, die die Positionen jedes dieser Elemente sowie die des Roboters umfasst.
  • Ansatz basierend auf geometrischer Analyse: Das Ergebnis ist ähnlich, nämlich eine Kartierung der verschiedenen Elemente der Umgebung und des Roboters. Der Unterschied liegt in der Methode: Sie basiert auf der geometrischen Analyse der von den Sensoren bereitgestellten Punktwolken. Zum Beispiel können bestimmte geometrische Formen in der Punktwolke erkannt und einer spezifischen Kategorie zugeordnet werden (interessante Pflanze, Unkraut usw.).


V. Fazit

Abschließend nutzt ein Agrarroboter propriozeptive und exterozeptive Sensoren, um seine Umgebung wahrzunehmen und sich präzise zu lokalisieren. Zu den am weitesten verbreiteten gehören das GNSS (GPS RTK), die RGB-D-Kamera und der LIDAR. In Kombination mit geeigneten Algorithmen liefern diese Sensoren dem Roboter entscheidende Informationen für die Navigation und autonome Entscheidungsfindung.


*: Die in diesem Artikel präsentierten technischen Informationen werden zu Informationszwecken bereitgestellt. Sie ersetzen nicht die offiziellen Anleitungen der Hersteller. Vor jeder Installation, Handhabung oder Nutzung konsultieren Sie bitte die Produktdokumentation und beachten Sie die Sicherheitsanweisungen. Die Website Torque.works kann nicht für eine unsachgemäße Verwendung oder eine falsche Interpretation der bereitgestellten Informationen verantwortlich gemacht werden.