OlloNi & Strutt EV1: KI zum Anfassen

OlloNi und Strutt EV1: Roboter werden zu Gefährten – genau dieses CES-2026-Signal bleibt hängen. In Las Vegas standen zwei Geräte im Mittelpunkt, die KI nicht nur „denken“, sondern handeln und reagieren lassen: das emotionale Cyber-Haustier OlloNi und das autonome Mobilitätsfahrzeug Strutt EV1. Beide zeigen, wie sich generative KI mit Robotik-Hardware verschmilzt und dadurch alltagstaugliche Begleiter entstehen. Der eine baut Bindung auf, der andere schafft Freiheit. Und beide müssen jetzt beweisen, dass ihre perfekten Messe-Demos auch im echten Leben funktionieren.

Das Wichtigste in Kürze

  • OlloNi ist ein emotional intelligenter Roboterbegleiter, der gezielt Bindung statt Tier-Imitation erzeugt.
  • Strutt EV1 bringt mit einem autonomen Co-Pilot-System neue barrierefreie Mobilität in Innenräumen und draußen.
  • Beide Produkte stehen für den CES-Megatrend: Verschmelzung von KI und Roboter-Hardware („physische KI“).
  • OlloNi nutzt u. a. Display-Gesicht mit tausenden Ausdrücken, Gesichtserkennung und einen sichtbaren „Herz“-Speicherkern.
  • Markteinführung im Februar 2026: Strutt startet mit Vorbestellungen, OLLOBOT plant ein „Cyber-Haustier-Universum“.

Warum gelten OlloNi und Strutt EV1 als „Roboter-Gefährten“ statt als klassische Maschinen?

Weil beide nicht nur Aufgaben ausführen, sondern kontextbezogen reagieren: OlloNi deutet Stimmungen und baut Bindung auf, Strutt EV1 interpretiert Räume autonom und unterstützt Selbstständigkeit im Alltag.

OlloNi und Strutt EV1 im direkten Vergleich

Merkmal OlloNi Strutt EV1
Zweck Emotionaler Begleiter Autonome Mobilität, mehr Selbstständigkeit
Kernfunktion Stimmungen wahrnehmen, Bindung aufbauen Räume verstehen, sicher navigieren
Interaktion Display-Gesicht mit vielen Ausdrücken Sprachbefehl („Fahr in die Küche“)
Sensorik/Technik Gesichtserkennung über Sensoren am Kopf LiDAR, Ultraschall, Kameras
Alltagssituation „lebt im Raum“, reagiert ohne Dauerforderung weicht Hindernissen in Echtzeit aus, parkt selbst
Marktsignal Start eines „Cyber-Haustier-Universums“ CES-Innovationspreis, Vorbestellungen offen
Timing Marktstart Mitte Februar 2026 Marktstart Mitte Februar 2026

OlloNi als Cyber-Haustier mit Gefühl

OlloNi ist kein Roboterhund, der ein echtes Tier perfekt kopieren will. Der chinesische Hersteller OLLOBOT vermarktet ihn bewusst als eigene „Cyber-Spezies“. Entscheidend ist die emotionale Verbindung, nicht die Illusion von Fell und Naturverhalten. Dafür sitzt im Gesichtsbereich ein Display, das tausende animierte Ausdrücke zeigen kann. Das reicht von neugierigem Blinzeln bis zu beruhigendem Glimmen. Beobachter beschreiben die Stärke als „passive Vitalität“. OlloNi ist präsent, beobachtet und reagiert, ohne ständig Aufmerksamkeit einzufordern.

Lesen Sie auch  China führt Offensive im Humanoid-Robotik-Markt an

„Passive Vitalität“ statt Uncanny Valley

Viele Roboter scheitern an einem Problem: Je echter sie wirken, desto eher werden sie unheimlich. OlloNi umgeht dieses „Uncanny Valley“, weil er gar nicht vorgibt, ein echter Hund zu sein. Stattdessen setzt er auf klare, digitale Signale, die Menschen schnell deuten können. Seine „Lebendigkeit“ entsteht über Bewegung, Präsenz und die wechselnden Gesichtsausdrücke. Dazu kommen Sensoren in den hornartigen Strukturen am Kopf, die Gesichtserkennung ermöglichen. Der Roboter sammelt dabei Daten, die er sichtbar macht. So wirkt das Verhalten weniger wie eine Show und mehr wie eine Beziehung, die mit der Zeit wächst. Genau dieser Ansatz passt zum Titel: Roboter werden zu Gefährten, weil sie sozial anschlussfähig sind.

Der „Herz“-Speicherkern als sichtbare Bindung

Ein besonderes Symbol bei OlloNi ist der leuchtende „Herz“-Speicherkern. Er visualisiert die gesammelten Daten und damit auch die wachsende Verbindung zum Nutzer. Das ist mehr als Deko, weil es den Prozess der Bindung sichtbar macht. Nutzer sehen: Der Begleiter „merkt sich“ etwas und entwickelt eine Art Kontinuität. Gleichzeitig bleibt offen, wie sich so ein System im Familienalltag bewährt. Denn zu Hause ist es lauter, chaotischer und unvorhersehbarer als auf einer Messe. Genau dort entscheidet sich, ob „Gefährte“ mehr ist als ein Marketingwort. OLLOBOT deutet zudem Zukunftspläne an: OlloNi soll der erste Bewohner eines „Cyber-Haustier-Universums“ werden. Damit sind weitere Modelle und Persönlichkeiten bereits mitgedacht.

Strutt EV1: Autonome Mobilität für mehr Selbstständigkeit

Strutt EV1 verfolgt ein anderes Ziel als OlloNi, aber mit derselben Grundidee: physische KI im Alltag. Das in Singapur entwickelte „smarte persönliche Mobilitätsfahrzeug“ gewann auf der CES einen Innovationspreis. Der entscheidende Hebel ist das Co-Pilot-System. Es nutzt LiDAR, Ultraschall und Kameras, also Technologien aus selbstfahrenden Autos. Damit kann der EV1 in Innenräumen und im Freien navigieren. Nutzer geben einfache Sprachbefehle wie „Fahr in die Küche“. Danach findet das Fahrzeug den Weg, ohne dass jede Bewegung manuell gesteuert werden muss. So wird Mobilität nicht nur leichter, sondern auch selbstbestimmter.

Co-Pilot-System, Sensorik und Alltagstauglichkeit

Autonom heißt hier: Der EV1 erkennt, was um ihn herum passiert. Die Sensoren erfassen dynamische Hindernisse wie Menschen oder Haustiere und weichen in Echtzeit aus. Das ist wichtig, weil reale Umgebungen nie statisch sind. Zusätzlich bewältigt das Antriebssystem unebenes Gelände, was für den Weg nach draußen entscheidend ist. Die Höchstgeschwindigkeit liegt bei 12 km/h, also schnell genug für praktische Strecken, aber klar als persönliches Mobilitätsgerät positioniert. Praktisch sind auch Komfortfunktionen: Der EV1 kann auf Befehl selbstständig parken oder zum Nutzer zurückkehren. Der Einführungspreis wurde mit rund 4.900 Euro genannt. Damit wird sichtbar: Es geht nicht um ein Konzeptfahrzeug, sondern um ein Produkt, das in den Alltag will.

Lesen Sie auch  Autonome Mobile Roboter: Markt & Zukunft

Der Durchbruch der „physischen KI“ und der Realitätstest

Die CES 2026 hat mit OlloNi und Strutt EV1 einen Megatrend verdichtet: die Verschmelzung von generativer KI und Roboter-Hardware. Der Kern ist nicht „Intelligenz“ im abstrakten Sinn, sondern kontextuelles Verständnis. OlloNi muss menschliche Regungen deuten, der EV1 komplexe Räume interpretieren. Vor wenigen Jahren war genau das in unstrukturierten Umgebungen noch experimentell. NVIDIA-Chef Jensen Huang sprach auf der Messe vom „ChatGPT-Moment für die physische KI“. Jetzt zeigt sich, ob dieser Moment außerhalb der Messehallen hält. Denn die Fragen sind konkret: Wie meistert der EV1 volle Gehwege in deutschen Innenstädten? Und wie integriert sich OlloNi in einen Familienalltag, der selten planbar ist? Mitte Februar 2026 beginnt die Markteinführung, Strutt hat Vorbestellungen geöffnet, und OLLOBOT setzt auf den Start einer ganzen Produktwelt.

Fazit

OlloNi und Strutt EV1: Roboter werden zu Gefährten ist mehr als ein CES-Slogan. OlloNi macht Bindung sichtbar und setzt auf emotionale Präsenz statt Tier-Imitation. Strutt EV1 verwandelt Autonomie in echte Selbstständigkeit durch Co-Pilot-Navigation und Sensorik. Beide starten im Februar 2026 in den Alltagstest. Genau dort entscheidet sich, ob „physische KI“ wirklich entlastet, begleitet und bleibt.

Bewerte den Beitrag hier!
[Total: 1 Average: 5]
Nico Nuss

Der Autor Nico Nuss beschäftigt sich seit 2001 mit den Themen Mobile Computing und Automation Software. Auf Grund seiner Erfahrung und dem starken Interesse für Zukunftstechnologien gilt seine Aufmerksamkeit den Themen Robotik und AI.