Willkommen bei WCM
Um alle Funktionen dieser Website nutzen zu können müssen Sie sich Einloggen oder Registrieren. Die Registrierung ist unverbindlich und dauert nur einen Moment.
Beweglicher Touchscreen erlaubt neue Gesten
Veröffentlicht am 14.05.2012 13:30:10
New York - Forscher der Carnegie Mellon University http://cmu.edu arbeiten an einem Touchscreen, der durch bessere Druckempfindlichkeit und Bewegungserkennung die Verwendung neuer Bediengesten ermöglicht. Dank des "Shear Input"-Konzepts soll es möglich werden, Anwendungen mit weniger Onscreen-Menüelementen zu entwerfen und wertvollen Platz auf dem Display freizumachen. Uwe Laufs, Wissenschaftler am Fraunhofer-Institut für Arbeitswirtschaft und Organisation (IAO) http://iao.fraunhofer.de, sieht im Interview durchaus Potenzial für diesen Ansatz.
Der Shear-Touch-Prototyp besteht aus einem rund sieben Zoll großen Touchscreen, der sich bei größerem Druck mehrere Millimeter weit in alle Richtungen bewegen lässt. Anhand verschiedener Programme demonstrieren die Entwickler verschiedene Verwendungsmöglichkeiten der Technologie.
So ist es damit möglich, Zeichen- und Skizzierprogramme um Schnellauswahlbefehle und andere Features zu bereichern. In einem Dateimanager lassen sich die neuen Gesten einsetzen, um Dateien nach Drag-and-Drop-Prinzip zu duplizieren. In der Textverarbeitung wäre das schnelle Kopieren von Textelementen an andere Stellen möglich, ohne dafür Umwege über zusätzliche Menüs nehmen zu müssen.
"Die Entwicklung ist nicht ganz neu", merkt Laufs im Gespräch an. "Vor dem Touchscreen-Zeitalter gab es optische Systeme, die mit Kameras gearbeitet haben und den Anpressdruck erkennen konnten. Als Entwicklung für mobile Geräte hat so etwas durchaus Potenzial", urteilt der Experte. Zwar ermöglichen Touchoberflächen relativ umfassende Bedienung von Geräten unterwegs, sie sind aber im Vergleich mit Maus und Tastatur immer noch relativ eingeschränkt, so sein Attest.
Die Zukunft des Touchinterfaces sieht er in der Multimodalität, da diese Bedienform alleine zu limitiert ist. "Man kann verschiedene Sensoren intelligent zur Unterstützung heranziehen. Ein Beispiel wäre das Eyetracking-System des Samsung Galaxy S3, das erkennen kann, ob der User gerade auf das Display sieht und diese Information in die Energiesteuerung miteinbezieht", so der Experte.
Ebenfalls geforscht wird an Touchbildschirmen mit Haptik-Features, die verschiedene Oberflächeneigenschaften simulieren und damit eine Onscreen-Tastatur ertastbar machen können. Seiner Einschätzung nach wird es jedoch noch einige Jahre dauern, bis diese Technologie für den Markt bereit ist.
Eine weitere Tendenz ist das Auslagern der Bedienung in Form von Augmented Reality. "Es gibt mittlerweile schon verschiedene Ansätze, das Interface vom Gerät zu entkoppeln und auf den Benutzer oder um ihn herum zu legen. Ein Beispiel dafür wäre das Touché-System, das aktuell von Disney entwickelt wird", ergänzt Forscher Leif Oppermann vom Fraunhofer-Institut für Angewandte Informationstechnik.
Veröffentlicht am 14.05.2012 13:30:10
New York - Forscher der Carnegie Mellon University http://cmu.edu arbeiten an einem Touchscreen, der durch bessere Druckempfindlichkeit und Bewegungserkennung die Verwendung neuer Bediengesten ermöglicht. Dank des "Shear Input"-Konzepts soll es möglich werden, Anwendungen mit weniger Onscreen-Menüelementen zu entwerfen und wertvollen Platz auf dem Display freizumachen. Uwe Laufs, Wissenschaftler am Fraunhofer-Institut für Arbeitswirtschaft und Organisation (IAO) http://iao.fraunhofer.de, sieht im Interview durchaus Potenzial für diesen Ansatz.
Der Shear-Touch-Prototyp besteht aus einem rund sieben Zoll großen Touchscreen, der sich bei größerem Druck mehrere Millimeter weit in alle Richtungen bewegen lässt. Anhand verschiedener Programme demonstrieren die Entwickler verschiedene Verwendungsmöglichkeiten der Technologie.
So ist es damit möglich, Zeichen- und Skizzierprogramme um Schnellauswahlbefehle und andere Features zu bereichern. In einem Dateimanager lassen sich die neuen Gesten einsetzen, um Dateien nach Drag-and-Drop-Prinzip zu duplizieren. In der Textverarbeitung wäre das schnelle Kopieren von Textelementen an andere Stellen möglich, ohne dafür Umwege über zusätzliche Menüs nehmen zu müssen.
"Die Entwicklung ist nicht ganz neu", merkt Laufs im Gespräch an. "Vor dem Touchscreen-Zeitalter gab es optische Systeme, die mit Kameras gearbeitet haben und den Anpressdruck erkennen konnten. Als Entwicklung für mobile Geräte hat so etwas durchaus Potenzial", urteilt der Experte. Zwar ermöglichen Touchoberflächen relativ umfassende Bedienung von Geräten unterwegs, sie sind aber im Vergleich mit Maus und Tastatur immer noch relativ eingeschränkt, so sein Attest.
Die Zukunft des Touchinterfaces sieht er in der Multimodalität, da diese Bedienform alleine zu limitiert ist. "Man kann verschiedene Sensoren intelligent zur Unterstützung heranziehen. Ein Beispiel wäre das Eyetracking-System des Samsung Galaxy S3, das erkennen kann, ob der User gerade auf das Display sieht und diese Information in die Energiesteuerung miteinbezieht", so der Experte.
Ebenfalls geforscht wird an Touchbildschirmen mit Haptik-Features, die verschiedene Oberflächeneigenschaften simulieren und damit eine Onscreen-Tastatur ertastbar machen können. Seiner Einschätzung nach wird es jedoch noch einige Jahre dauern, bis diese Technologie für den Markt bereit ist.
Eine weitere Tendenz ist das Auslagern der Bedienung in Form von Augmented Reality. "Es gibt mittlerweile schon verschiedene Ansätze, das Interface vom Gerät zu entkoppeln und auf den Benutzer oder um ihn herum zu legen. Ein Beispiel dafür wäre das Touché-System, das aktuell von Disney entwickelt wird", ergänzt Forscher Leif Oppermann vom Fraunhofer-Institut für Angewandte Informationstechnik.
« Snapchat: iPhone-App macht Sexting sicherer · Beweglicher Touchscreen erlaubt neue Gesten
· Kudo: iPad bekommt Photovoltaik-Case »