Fusion: Backpack style wearable two armed robot - Tragbarer Robot, der dem Träger zwei zusätzliche Hände gibt - eine Entwicklung an der Keio University Graduate School of Media Design in Japan

21.08.2018 23:45:53, Jürgen Auer, keine Kommentare

Wenn man jemandem anderen Handgriffe erklären möchte, dann kann das für den Lernenden durchaus schwierig sein, wenn er das bei einer anderen Person sieht, die gesehenen Bewegungen aber in eigene Bewegungen umsetzen soll.

In Japan, an der Keio University Graduate School of Media Design, ist dazu ein interessantes Projekt entstanden.

Ein Roboter, den man wie einen Rucksack trägt. Hinten sind die Steuertechnik und Batterien drin. Zusätzlich hat der Roboter drei Elemente. Eine Art Hals mit einem kleinen Kopf und zwei Kamera-Augen. Und zwei Arme, die beide in Hände münden und von den Gelenken her ähnlich aufgebaut sind wie menschliche Arme.

Der Kopf und die Arme können aus der Entfernung von einem anderen Nutzer gesteuert werden. Über ein Oculus Rift virtual-reality headset.

Der Effekt: Der Träger des Roboters kann so auf die Entfernung von jemandem anderen angeleitet werden.
.

Backpack-style robot companion gives wearer two functional extra hands

https://www.dezeen.com/2018/08/21/fusion-robot-backpack-yamen-saraiji-extra-arms/

.
Das Video auf YouTube:

Fusion: Full Body Surrogacy for Collaborative Communication

https://www.youtube.com/watch?v=Nrc7gH6dydw

.
Effektive Kommunikation sei ein Schlüsselfaktor, wenn es darum geht, Fähigkeiten an andere Personen weiterzugeben.

Eine Person kann die andere Person quasi direkt anleiten. Als ob sie hinter ihr stehen und ihr alle Handgriffe zeigen würde.

> "Fusion" enables body surrogacy by sharing the same point of view of two-person: a surrogate and an operator, and it extends the limbs mobility and actions of the operator using two robotic arms mounted on the surrogate body. These arms can be used independently of the surrogate arms for collaborative scenarios or can be linked to surrogate's arms to be used in remote assisting and supporting scenarios. Using Fusion, we realize three levels of bodily driven communication: Direct, Enforced, and Induced.

Es gibt verschiedene Modi: In der einen Variante hat der Robot zwei Hände und agiert eigenständig, kann den Robot-Träger so anleiten.

In dem anderen Modus entfallen die Hände. Die Enden der Roboterarme sind direkt mit den Handgelenken des Robot-Trägers verbunden (das ist die Enforced-Variante). Damit können Bewegungen direkt gezeigt werden.

Als "Induced" wird die Variante bezeichnet, wo der Robot dem Träger bsp. einen Weg zeigt.

Das "Anleiten auf die Entfernung" könnte in einigen Szenarien sehr interessant sein. Mal sehen, ob sich in ein paar Jahren solche Systeme so weiterentwickeln, daß sie in konkreten Situationen außerhalb von Forschungsprojekten genutzt werden.

Der Name "Fusion" ist wohl von dieser Überlegung hergeleitet:

> We demonstrate through this system the possibilities of truly embodying and transferring our body actions from one person to another, realizing true body communication.

Köperaktionen lassen sich so von einer Person zu einer anderen transferieren, so daß eine Körper-Kommunikation auf die Entfernung möglich ist.

Unter

Meet the guy with four arms, two of which someone else controls in VR

https://www.technologyreview.com/s/611745/meet-the-guy-with-four-arms-two-of-which-someone-else-controls-in-vr/

gibt es noch einige weitere Informationen. Demnach wären auch Einsatzmöglichkeiten wie physikalische Therapien denkbar, bei denen Personen Bewegungen wieder erlernen. Aktuell ist das noch ein Prototyp - mit einem Gewicht von 21 Pfund, also etwa 9,5 kg.

Hermano Igo Krebs, der sich am MIT lange mit "Rehabilitations-Robots" beschäftigt hat, sieht in Rehabilitationsmaßnahmen eher nicht eine zukünftige Verwendung. Aber er kann sich vorstellen, daß so ein Robot in verschiedensten anderen Situationen nützlich sein könnte. Angefangen im Weltraum.

Inzwischen laufen Vorbereitungen, das als Geschäftsidee weiterzutreiben.

*
* (wird nicht angezeigt)
Die Erläuterungen zum Datenschutz habe ich gelesen und stimme diesen zu.