Android

Warum die neueste Funktion der Apple Watch zum Scheitern verurteilt ist

Das Double-Tap-Symbol auf der Apple Watch Series 9Andy Boxall / Digitale Trends

Gestensteuerungssysteme funktionieren am besten, wenn sie einfach, schnell und leicht zu erlernen sind. Außerdem müssen sie sich natürlich und intuitiv anfühlen, am besten so, dass man sie sich einprägt, und vor allem müssen sie zuverlässig sein. Apples Double Tap auf der Apple Watch Series 9 und der Apple Watch Ultra 2 ist ein gutes Beispiel für eine gut funktionierende Gestensteuerung.

Ich denke, es ist ein cooles, unterhaltsames Feature, und ich bin nicht allein. Es ist jedoch nicht das erste seiner Art, und die Geschichte zeigt uns, dass Gesten auf Mobilgeräten leider eher aufgegeben und vergessen werden, als dass sie geliebt und weit verbreitet sind.

Motion Sense auf dem Pixel 4

Verwenden Sie Motion Sense auf Pixel 4 | Pixel

Ohne noch einmal einen Blick auf Handys wie das Sony Ericsson Yari von 2009 zu werfen, das die Frontkamera nutzte, um Körperbewegungen zu überprüfen und vorinstallierte Spiele zu steuern, denken viele Technikfans vielleicht sofort an das Google Pixel 4 und Pixel 4 XL von 2019 Gestensteuerung wird erwähnt.

Warum die neueste Funktion der Apple Watch zum Scheitern verurteilt ist

Sparen Sie bei allem, von Laptops und Tablets über Kaffeemaschinen und Luftreiniger bis hin zu wichtigen Smart-Home-Geräten wie dem Amazon Echo.

Diese beiden Geräte waren die ersten, die über den Project Soli-Chip von Google verfügten, der mithilfe von Radar selbst kleinste Bewegungen in seiner Umgebung erkannte. Die resultierende Funktion namens Motion Sense ermöglichte es Ihnen, über das Telefon zu wischen, um Musik abzuspielen oder anzuhalten, Alarme stummzuschalten oder einen eingehenden Anruf stummzuschalten. Außerdem wurde das Telefon entsperrt, als Sie es in die Hand nahmen.

LESEN  Ich habe 4 günstige Android-Handykameras verglichen und der Gewinner hat mich überrascht

Pixel 4 XL-Taste mit AkzentJulian Chokkattu / Digitale Trends

Es war technisch spannend, aber in der Praxis funktionierte es nicht zuverlässig genug, und Probleme mit der Regelmäßigkeit führten dazu, dass es nicht weltweit eingesetzt werden konnte, was das Umsatzpotenzial schmälerte. Das Pixel 4 war am Ende das einzige Smartphone, das über die Gestensteuerung von Project Soli verfügte, aber der Chip hat ohne Motion Sense im Google Nest Hub weitergelebt, wo er dabei hilft, die Atmung während des Schlafs zu messen.

EyeSight-Technologien

Pantechs Vega LTE-Smartphone mit der Gestenerkennungstechnologie von eyeSight

Motion Sense auf dem Pixel 4 ist wahrscheinlich eines der bekannteren gescheiterten Gestensteuerungssysteme auf einem Telefon, aber andere Unternehmen hatten schon lange zuvor an Gestensteuerungssystemen gearbeitet. Im Jahr 2011 brachte die koreanische Elektronikmarke Pantech das Vega LTE auf den Markt, das im Grunde die gleichen Gesten wie das Pixel 4 hatte, aber ein softwarebasiertes System nutzte, das zum „Sehen“ auf die Frontkamera angewiesen war. Es wurde von einer Firma namens eyeSight Technologies entwickelt.

Nach der Pantech Vega hat sich eyeSight Technologies mehrere Jahre lang intensiv dafür eingesetzt, Gestensteuerung auf mobilen Geräten möglich zu machen. Der Erfolg beruhte auf der plattformunabhängigen NUI-Software (Natural User Interface), die direkt in das Betriebssystem eines Geräts oder sogar in Apps integriert werden konnte, um die Kamera zu nutzen und Gestensteuerungssysteme hinzuzufügen.

Das Unternehmen arbeitete mit der indischen Smartphone-Marke Micromax am A85 Superfone zusammen, das ähnliche Gesten wie das Pantech Vega nutzte, das NUI auf Android und iOS verfügbar machte und seine Technologie mehrfach auf Technologiemessen vorgestellt wurde. Das Unternehmen prahlte mit Partnerschaften mit Unternehmen von Nokia bis AMD und versuchte auch, aus der frühen VR-Begeisterung im Jahr 2016 Kapital zu schlagen. Trotz all dieser Bemühungen erreichte es nie den Mainstream, und das Unternehmen änderte schließlich seinen Namen in Cipia und verlagerte sich auf die Technologie im Auto.

LESEN  Das nächste faltbare Razr Plus von Motorola klingt nach einem gewaltigen Upgrade

Luftgesten auf dem Samsung Galaxy S4

Wunderschöner Bildschirm des Galaxy S4Digitale Trends

Ungefähr zur gleichen Zeit, als eyeSight Technologies sein softwarebasiertes Gestensystem bewarb, führte Samsung auf dem brandneuen Galaxy S4-Smartphone eine kleine Reihe von Gestensteuerungen namens Air Gestures ein. Das Telefon verwendet einen Infrarotsensor, um grundlegende Handbewegungen über dem Bildschirm zu erkennen. So können Sie ihn aktivieren, um die Uhrzeit zu überprüfen, ohne ihn zu berühren, Anrufe anzunehmen, mit Apps zu interagieren und sogar mit nur einer Wischbewegung durch Webseiten zu scrollen.

Es funktionierte ganz gut, aber die geringe Reichweite des Sensors bedeutete, dass man den Bildschirm ohnehin fast berührte, was ihn auffälliger erscheinen ließ, als die coole Technik es vielleicht verdient hätte. Die Funktion blieb im Repertoire von Samsung bestehen, wurde jedoch langsam eingestellt und durch Air Actions ersetzt, das Gesten mit dem S Pen-Stift verwendet, um ähnliche Aktionen auszuführen, ohne dass ein Infrarotsensor erforderlich ist.

Samsung Galaxy S4 Wie 2 Luftgesten verwenden

Bisher haben wir Radar-, Software- und Infrarotsensoren gesehen, die dazu dienen, Handbewegungen zu verstehen und Funktionen auf unseren Telefonen zu steuern. Dies zeigt, wie experimentierfreudig Unternehmen waren und dass es keinen anerkannten „besten“ Weg gab, Gestenerkennung hinzuzufügen ein Smartphone. Aber wir sind noch nicht fertig.

Elliptische Labore

Elliptische Labore 2Die Technologie von Elliptic Labs wurde auf einer Messe vorgestellt Malarie Gokey/Digitale Trends / Digitale Trends

Spulen wir zurück ins Jahr 2017, und interessanterweise wurde das Galaxy S4 auch bei einer Demonstration der Gestenerkennungstechnologie von Elliptic Labs zum Einsatz gebracht, die – wie eyeSight Technologies – viel Zeit und Mühe darauf verwendet hat, uns dazu zu bringen, mit unseren Smartphones zu winken andere Geräte.

LESEN  Lohnt sich das Samsung Galaxy S23 auch 10 Monate später noch?

Die Technologie von Elliptic Labs nutzte Ultraschall zur Bewegungserkennung, was ein größeres Bewegungsfeld und die Verwendung verschiedener Gesten ohne Abhängigkeit von Licht, weniger Stromverbrauch und mehr Genauigkeit ermöglichte. Es war geplant, die Ultraschall-Gestentechnologie an Gerätehersteller zu lizenzieren, aber es schien nie weit über das Demo- und Konzeptstadium hinauszukommen, obwohl das gleiche System angepasst wurde, um den Boom des Internets der Dinge (IoT) zu nutzen, und es in Lautsprecher und Leuchten integriert wurde .

Stattdessen nutzte Xiaomi seinen Ultraschall-Näherungssensor, um auf einen herkömmlichen Näherungssensor zu verzichten und den Rahmen des ursprünglichen Mi Mix zu minimieren. Heute arbeitet Elliptic Labs immer noch an Näherungssensoren und hat nun die Hardware vollständig aus dem System entfernt, um eine softwaregesteuerte Näherungserkennung anzubieten, die auf den kompakten Falttelefonen Motorola Razr Plus und Razr (2023) zu finden ist.

Air Motion auf dem LG G8 ThinQ

LG G8 ThinQJulian Chokkattu / Digitale Trends

Sowohl Elliptic Labs als auch eyeSight Technologies haben zusammen mit anderen Unternehmen wie Neonode zwischen 2010 und 2017 mit Gestensteuerung experimentiert – ohne jedoch außerhalb von Technologiemessen wie CES und MWC große Auswirkungen zu haben. Als das Pixel 4 2019 das Interesse an Gestensteuerung neu entfachte, gesellte sich ein weiteres namhaftes Gerät hinzu: das LG G8 ThinQ.

LG, das inzwischen ganz aufgehört hat, Smartphones herzustellen, liebte es, mit seinen Handys neue Dinge auszuprobieren, sei es modulare Hardware beim LG G5 oder sekundäre Bildschirme bei Handys wie dem LG V10 und dem V50 ThinQ. Air Motion nutzte nach vorne gerichtete Kameras und einen Time-of-Flight-Sensor (ToF), um verschiedene Handbewegungen zu erkennen, einschließlich der Nachahmung des Drehens eines Lautstärkereglers, um die Lautstärke des Musikplayers anzupassen.

LESEN  Google Pixel Fold 2: Neuigkeiten, angeblicher Preis, Erscheinungsdatum und mehr

So verwenden Sie das LG G8 ThinQ – Air Motion

Wie bei allen Gestensteuerungssystemen im Nahbereich war sein Nutzen ebenso fraglich wie der Touchscreen genau da, nur wenige Zentimeter von Ihren drehenden Fingern entfernt. Es war auch nicht besonders zuverlässig, was die Leute davon abhielt, es zu benutzen. Das LG G8 ThinQ markierte das Ende der G-Serie von LG und zusammen mit Project Soli war Air Motion möglicherweise das letzte Gestensteuerungssystem, das von einem Telefonhersteller stark beworben wurde.

Was ist mit Smartwatches?

Ein Foto von jemandem, der mit der Hand gestikuliert, Double Tap auf der Apple Watch Ultra 2 zu verwenden.Joe Maring / Digitale Trends

Bis vor kurzem wurden Gestensteuerungen hauptsächlich auf Smartphones demonstriert oder vorgestellt. Aber was ist mit Smartwatches? Double Tap auf der Apple Watch Series 9 und der Apple Watch Ultra 2 verdankt seine Existenz einer Barrierefreiheitsfunktion namens AssistiveTouch, die seit mehreren Jahren Teil von watchOS ist. Auch bei der Galaxy Watch 6 bietet Samsung eine ganz ähnliche Barrierefreiheitsfunktion.

In einer Smartwatch ist der Platz knapp und es gibt kaum Platz für Kameras, Näherungssensoren oder andere komplexe Hardware. Double Tap nutzt den Herzfrequenzsensor, den Beschleunigungsmesser und die Software, um zu erkennen, wann Sie mit den Fingern tippen, und fügt der Liste ein weiteres Erkennungssystem hinzu.

Außerhalb der Apple Watch und Double Tap demonstrierte Google Project Soli in einer Smartwatch, schaffte es jedoch nie auf die spätere Google Pixel Watch. Die bizarr benannte Mad Gaze Watch nutzte offenbar die Knochenleitung, um eine Reihe verschiedener Gestensteuerungen zu ermöglichen, von Fingerschnippen bis hin zu Armtipps. Im Jahr 2015 finanzierte ein Unternehmen namens Deus Ex per Crowdfunding ein Zusatzmodul für die Pebble Watch namens Aria, und obwohl es sich nicht um eine Smartwatch handelt, nutzte Google Kopfnicken, um Google Glass um die Freisprechfunktion zu erweitern.

LESEN  Die besten Black Friday-Telefonangebote: 6 frühe Angebote, die jetzt verfügbar sind

Einfache Gesten sind am besten

Eine Person, die auf der Apple Watch Series 9 die Doppeltipp-Geste ausführt.Andy Boxall / Digitale Trends

All diese Beispiele zeigen, dass es mehr gescheiterte Versuche gibt, Gestensteuerungssysteme auf unseren Telefonen und Smartwatches populär zu machen, als Erfolge. Es gibt jedoch einige einfache Gesten, die sich als effektiv und zuverlässig erwiesen haben – bis zu dem Punkt, dass wir sie nicht einmal als etwas Besonderes betrachten. Ein gutes Beispiel ist „Raise-to-Wake“, bei dem das Anheben oder Neigen des Bildschirms eines Geräts in Richtung Ihres Gesichts das Display einschaltet, und es ist das perfekte Beispiel für eine natürliche Bewegung, die eine Funktion aktiviert. Man könnte argumentieren, dass alles, was darüber hinausgeht, einfach zu kompliziert ist.

Sogar Bewegungen und Drehungen des Handgelenks, die beim Moto 360 zum Scrollen verwendet wurden, scheinen eine Geste zu sein, die zu weit geht und seit dem Fossil Hybrid HR selten zu sehen ist. Abgesehen von diesen wenigen isolierten Beispielen und den wesentlichen Barrierefreiheitsfunktionen haben Gesten für die meisten Menschen die regelmäßige, alltägliche Nutzung eines Wearables oder Smartphones nicht verändert.

Double Tap hat jedoch das Potenzial, neben „Raise-to-Wake“ eine der wenigen weit verbreiteten Gesten auf einer Smartwatch zu sein, da es einfach und natürlich ist und wirklich gut funktioniert. Leider hat die Geschichte gezeigt, dass Gestensteuerungssysteme und mobile Geräte einfach noch nicht unser Interesse geweckt haben, und ich hoffe, dass Double Tap nicht auf einer zukünftigen Liste schnell aufgegebener, aber vielversprechender Gestensteuerungssysteme landet. Es ist zu interessant, dieses Schicksal zu erleiden.

Ähnliche Artikel

Schaltfläche "Zurück zum Anfang"