Pepper® Roboter

Funktionsbereiche: Ausdruck & Interaktion

Peppers WLAN-Anbindung ermöglicht den Versand von E-Mails, das Anzeigen von Webseiten auf dem Tablet und auch den Zugriff auf entfernte Backends.

Durch Text2Speech und Speech2Text kann Pepper sowohl gescriptete Dialoge in bis zu 15 Sprachen führen, als auch auf über sein Tablet eingegebenen Text reagieren.

Pepper erkennt Personen und Gesichter und kann anhand von Schlüsselworten Informationen geben. Zudem liest er QR-Codes.

Licht (somit Stimmungen) über LEDs an Augen, Ohren und Schultern. Bild und Video kommt über das Tablet und MP3 über seine Lautspecher.

Pepper bewegt sich mit Hinderniserkennung in eine Richtung. In der Alpha-Phase befindet sich der Aufbau und die Bewegung aufgrund einer internen Umgebungskarte.

Pepper hat Out-of-the-Box Bewegungen für Körpersprache - diese können jederzeit um individuelle Programmierungen ergänzt werden. Dabei kann jedes seiner Gelenke einzeln angesteuert werden.

                                                Entdecken Sie hier unser Modulsystem SALT: so hauchen wir Pepper Leben ein