Biegsame Displays, Gesten- und Blicksteuerung, Smartphone-Uhr geforscht wird in alle Richtungen. Neue Hardware ermöglicht revolutionäre Bedienkonzepte. Wie werden wir in Zukunft mit dieser Technik kommunizieren und die mit uns?
Viele halten eine Art Armbanduhr-Smartphone, wie die Pebble-Uhr für nutzerfreundlicher und damit auch zukunftsträchtiger als eine Datenbrille. Sony bietet bereits seine smartwatch an. Und auch wenn apple es offiziell nicht bestätigt. Sie wären ja verrückt, wenn sie nicht an einer iwatch schrauben würden.
Samsung und LG zeigten auf der Elektronikmesse CES Fernsehgeräte die durch Gesten und Zuruf bedient werden.
Die schwedische Firma Tobii Technology lässt den Computer durch die Augen steuern. Ein Sensor erkennt, wohin man schaut. Was man anguckt, wird farbig markiert. Geklickt werden muss aber noch, aber nur mit einer Taste. Die Firma Haier plant so was für das Fernsehen.
Ausrollbare Displays sind über die Erprobungsphase längst hinaus. Mittlerweile werden sogar schon Handy-Prototypen damit hergestellt. Ob falt-oder rollbar. Kommen wird’s, da bin ich mir ziemlich sicher. Die Stromversorgung muss allerdings noch geklärt werden. In Zukunft soll es möglich sein, Geräte schnurlos aufzuladen.
Angeblich arbeitet man für die Google-Glass an einer virtuellen Tastatur, die auf den Arm projeziert wird und mit Gesten gesteuert wird.
Apple arbeitet an einer Einhandbedienung fürs smartphone.
Beamer sollen angeblich bald Bestandteil von Smartphones werden, wie heute schon die Kamera. Das wär' natürlich was - auch im beruflichen Einsatz.
Fingering-Chips zum bezahlen, authentifizieren, aber auch, um „seine“ Konfiguration aufzurufen, wenn mehrere die gleiche Hardware bedienen, sind in Arbeit. Ein „Schmuck“-Ring der getragen Passwörter griffbereit zur Verfügung stellt, ist denkbar. Legt man den Ring ab, erlischt die personalsierte Funktion.
Gedankensteuerung hört sich ja schon ein bisschen gruselig an und ist noch extreme Zukunftsmusik.
Doch zu all diesen Dingen wird im Moment, teilweise mit viel Geld und Energie, geforscht.
Smart-Service-Blogger Bernhard Steimel sieht bei jeder Art von wearable computing die Sprachsteuerung als Schlüsseltechnologie: „Erst dann kann man von einem elektronischen Assistenten sprechen, der meinen Alltag erleichtert, mich vor der Informationsüberflutung bewahrt und sich auf meine Bedürfnisse einstellt.“
Dem kann ich nur zustimmen. Eine perfekte Spracherkennung ist der Zugang zur Veränderung von ganz vielen Bedienkonzepten. Das muss allerdings heißen, der Computer versteht mich, ganz individuell und, wenn nicht anders konfiguriert, auch nur mich. Präzise, ohne dass ich einen Kurs „Wie spreche ich mit meinem Computer“ belegen muss.
Das würde zwischen Falt-Handys und Zwinker-Steuerung immer noch revolutionär sein, auch wenn es das eigentlich ja längst gibt.
Bisher sind meine Erfahrungen mit Spracherkennung allerdings schnell zusammengefasst: Da kann ich auch tippen. Theoretisch, ja auch praktisch, hätte ich ihn schon diktieren können, aber da hab ich nicht die Nerven für. Zeit spart es auch nicht, weil zumindest ich immer viel korrigieren muss oder Befehle mehrfach einsprechen muss. Doch ich bin da optimistisch. Für meine Arbeit, mein KMU, wär es der Hammer.
Samsung und LG zeigten auf der Elektronikmesse CES Fernsehgeräte die durch Gesten und Zuruf bedient werden.
Die schwedische Firma Tobii Technology lässt den Computer durch die Augen steuern. Ein Sensor erkennt, wohin man schaut. Was man anguckt, wird farbig markiert. Geklickt werden muss aber noch, aber nur mit einer Taste. Die Firma Haier plant so was für das Fernsehen.
Ausrollbare Displays sind über die Erprobungsphase längst hinaus. Mittlerweile werden sogar schon Handy-Prototypen damit hergestellt. Ob falt-oder rollbar. Kommen wird’s, da bin ich mir ziemlich sicher. Die Stromversorgung muss allerdings noch geklärt werden. In Zukunft soll es möglich sein, Geräte schnurlos aufzuladen.
Angeblich arbeitet man für die Google-Glass an einer virtuellen Tastatur, die auf den Arm projeziert wird und mit Gesten gesteuert wird.
Apple arbeitet an einer Einhandbedienung fürs smartphone.
Beamer sollen angeblich bald Bestandteil von Smartphones werden, wie heute schon die Kamera. Das wär' natürlich was - auch im beruflichen Einsatz.
Fingering-Chips zum bezahlen, authentifizieren, aber auch, um „seine“ Konfiguration aufzurufen, wenn mehrere die gleiche Hardware bedienen, sind in Arbeit. Ein „Schmuck“-Ring der getragen Passwörter griffbereit zur Verfügung stellt, ist denkbar. Legt man den Ring ab, erlischt die personalsierte Funktion.
Gedankensteuerung hört sich ja schon ein bisschen gruselig an und ist noch extreme Zukunftsmusik.
Doch zu all diesen Dingen wird im Moment, teilweise mit viel Geld und Energie, geforscht.
Smart-Service-Blogger Bernhard Steimel sieht bei jeder Art von wearable computing die Sprachsteuerung als Schlüsseltechnologie: „Erst dann kann man von einem elektronischen Assistenten sprechen, der meinen Alltag erleichtert, mich vor der Informationsüberflutung bewahrt und sich auf meine Bedürfnisse einstellt.“
Dem kann ich nur zustimmen. Eine perfekte Spracherkennung ist der Zugang zur Veränderung von ganz vielen Bedienkonzepten. Das muss allerdings heißen, der Computer versteht mich, ganz individuell und, wenn nicht anders konfiguriert, auch nur mich. Präzise, ohne dass ich einen Kurs „Wie spreche ich mit meinem Computer“ belegen muss.
Das würde zwischen Falt-Handys und Zwinker-Steuerung immer noch revolutionär sein, auch wenn es das eigentlich ja längst gibt.
Bisher sind meine Erfahrungen mit Spracherkennung allerdings schnell zusammengefasst: Da kann ich auch tippen. Theoretisch, ja auch praktisch, hätte ich ihn schon diktieren können, aber da hab ich nicht die Nerven für. Zeit spart es auch nicht, weil zumindest ich immer viel korrigieren muss oder Befehle mehrfach einsprechen muss. Doch ich bin da optimistisch. Für meine Arbeit, mein KMU, wär es der Hammer.
23.05.13