MIT Blind Cheetah 3 - ein Roboter auf vier Beinen ohne Kameras, der gehen, laufen, rennen und springen kann - vom Massachusetts Institute of Technology - MIT

05.07.2018 22:50:24, Jürgen Auer, keine Kommentare

Kann man einen Roboter bauen, der sich stabil in einer unbekannten Gegend bewegen kann, ohne daß er auf Kameras oder visuelle Sensoren angewiesen ist? In gefährlichen Situationen oder bei einem Unglück könnte ein solcher Roboter genutzt werden, um Erkundungen einzuholen.

Am Massachusetts Institute of Technology (MIT) wurde nun "Blind Cheetah 3" vorgestellt. Ein Roboter mit vier Beinen, der Kniegelenke pro Bein hat. Und der sich vielfältig fortbewegen kann.
.

“Blind” Cheetah 3 robot can climb stairs littered with obstacles

http://news.mit.edu/2018/blind-cheetah-robot-climb-stairs-obstacles-disaster-zones-0705

.
Das Video auf YouTube: Vision-free MIT Cheetah

https://www.youtube.com/watch?v=QZ1DaQgg3lE

.
> MIT's Cheetah 3 robot can now leap and gallop across rough terrain, climb a staircase littered with debris, and quickly recover its balance when suddenly yanked or shoved, all while essentially blind.

Im Video hängt bei den Indoor-Aufnahmen oben immer noch eine Sicherung dran. Bei Outdoor-Bewegungen entfällt diese Sicherung.

Cheetah 3 kann gehen, laufen, galoppieren. Er kann per Sprung auf einen 76 Zentimeter hohen Absatz kommen (animiertes GIF im Beitrag, im Video am Ende). Oder sich wie eine Spinne in verschiedene Richtungen bewegen.

Er kann eine Treppe hochsteigen. Wenn er gestört wird (von der Seite angestoßen wird), kann er sich einigermaßen auf den Beinen halten. Zur Not kommt er auch auf drei Beinen voran. Und das alles, obwohl er grundsätzlich blind ist. Aber natürlich als Nutzlast eine Kamera für Aufnahmen transportieren könnte.

Das "mechanische Biest" wiegt mit 90 Pfund (~~ 40 kg) etwa so viel wie ein Labrador. Anstelle der optischen Orientierung bewegt er sich ständig.

> Instead, it nimbly “feels” its way through its surroundings in a way that engineers describe as “blind locomotion,” much like making one’s way across a pitch-black room.

So, wie sich ein Mensch in einem schwarzen Raum orientieren würde.

Der Roboter soll in der Lage sein, viele unvorhersehbare Situationen zu bewältigen. Optische Signale können unklar, noisy sein. Ungenau, manchmal nicht verfügbar. Und wenn man sich zu sehr darauf stützt, müßte der Roboter immer die genaue Position einnehmen. Stattdessen soll sich der Roboter mehr durch seine taktilen Fähigkeiten orientieren. Damit kann er unerwartete Störungen besser bewältigen, während er sich rasch bewegt.

Später soll der Roboter in Situationen eingesetzt werden, die für Menschen nicht bewältigbar oder zu gefährlich sind.

Sangbae Kim, einer der Entwickler:

> “If humans close our eyes and make a step, we have a mental model for where the ground might be, and can prepare for it. But we also rely on the feel of touch of the ground,” Kim says. “We are sort of doing the same thing by combining multiple [sources of] information to determine the transition time.”

Wenn sich ein Mensch mit geschlossenen Augen bewegt, dann hat er ein geistiges Modell, wo der Boden ist. Wie sich der Boden anfühlt, ob das fest oder uneben ist. Etwas ähnliches macht Cheetah 3. Die ganzen sensorischen Informationen werden gesammelt und es werden daraus Schlußfolgerungen gezogen.

In dem Video sieht man auch, wie es Cheetah 3 bewältigt, von einem Rasenboden über groben Kies hin zu einem Steinplattenboden schafft.

Die Geschwindigkeit geht von 0,5 Metern / Sekunde über ein zügigeres Gehen (1,7 m/s), ein Rennen (2,75 m/s) bis zum Galoppieren (3 m/s). Dann springt er einfach hoch und landet wieder stabil, kann sich dabei drehen. Oder sich wie eine Spinne bewegen. Auch eine Seitwärtsbewegung ist möglich.

Die Bewegung beim Sprung ist faszinierend: Cheetah 3 springt mit den Hinterbeinen, richtet dabei seinen Körper fast senkrecht auf und landet zuerst mit den Hinterbeinen, um sich dann mit den Vorderbeinen abzubremsen und zu stabilisieren.

Cheetah 3 soll zwar auch noch Kameras bekommen. Aber die Bewegungen soll über die Motorik und über die taktilen Rückmeldungen koordiniert werden.

> “And when we do add vision, even if it might give you the wrong information, the leg should be able to handle (obstacles). Because what if it steps on something that a camera can’t see? What will it do? That’s where blind locomotion can help. We don’t want to trust our vision too much.”

Was ist, wenn die Kameras irreführende Informationen sehen? Was ist, wenn etwas passiert, das die Kameras nicht sehen?

Wir wollen uns nicht zu sehr auf die Sehfähigkeiten verlassen.

*
* (wird nicht angezeigt)
Die Erläuterungen zum Datenschutz habe ich gelesen und stimme diesen zu.