TÜBINGEN. In dem Bestreben, den Tastsinn von Robotern zu verbessern, entwickeln Wissenschaftler des Max-Planck-Instituts für Intelligente Systeme einen Sensor, der einem Daumen gleicht und im Inneren mit einer Kamera ausgestattet ist. Das Team trainiert ein tiefes neuronales Netz, um aus den Kamerabildern Informationen abzuleiten, wo und wie stark der Sensor berührt wird.
Aus gefilmten Verformungen der flexiblen Außenhülle des Sensors generiert das neuronale Netz ein dreidimensionales Abbild der Kräfte, die auf den künstlichen Daumen einwirken. Die Erfindung verbessert die haptische Wahrnehmung von Roboterfingern erheblich und kommt dem Tastsinn der menschlichen Haut einen wesentlichen Schritt näher.
In einer Publikation im Fachjournal Nature Machine Intelligence stellt ein Team von Wissenschaftlern und Wissenschaftlerinnen des Max-Planck-Instituts für Intelligente Systeme (MPI-IS) einen robusten, weichen und haptischen Sensor namens »Insight« vor. Mit Hilfe von Maschinellem Sehen und einem tiefen neuronalen Netzwerk kann der Sensor genau abschätzen, an welcher Stelle Objekte mit ihm in Kontakt kommen und wie groß die einwirkenden Kräfte sind.
Das Forschungsprojekt ist ein wichtiger Schritt hin zu Robotern, die wie Menschen und Tiere ihre Umgebung ertasten können. Wie sein natürliches Vorbild ist der Sensor sehr empfindlich, robust und präzise.
Dem Algorithmus entgeht nichts
Der einem Daumen nachempfundene Sensor besteht aus einer weichen Hülle, die ein leichtes, steifes Skelett in sich einschließt. Dieses Skelett hält die Struktur aufrecht, ähnlich wie Knochen das weiche Gewebe eines Fingers stabilisieren. Die Hülle besteht aus einem Elastomer, das mit dunklen, aber reflektierenden Aluminiumflocken angemischt wurde. Dadurch bekommt die Hülle eine gräuliche Farbe und ist undurchsichtig, sodass kein Licht von außen eindringen kann. Im Inneren dieser fingergroßen Kapsel ist eine winzige 160-Grad-Fischaugenkamera eingebaut.
Wenn ein oder mehrere Objekte die Sensorhülle berühren, ändert sich das Farbmuster im Inneren des Sensors. Die Kamera nimmt mehrmals pro Sekunde Bilder auf und füttert mit diesen Daten ein tiefes neuronales Netz.
Dem Algorithmus entgeht nichts: In jedem Pixel erkennt er selbst kleinste Veränderungen des Lichts. Innerhalb eines Sekundenbruchteils kann das trainierte Modell herausfinden, wo genau ein Objekt den »Finger« berührt, wie stark die Kräfte sind und in welche Richtung sie wirken. (pm)