8 Benutzeroberfläche der nächsten Generation (fast) hier
Wenn wir über die Benutzeroberfläche (User Interface, UI) in Computing sprechen, beziehen wir uns auf wie sich ein Computerprogramm oder -system für seinen Benutzer darstellt, in der Regel über Grafiken, Text und Sound. Wir sind alle mit dem typischen Windows- und Apple-Betriebssystem vertraut, bei dem wir mit unseren Mauscursors mit Symbolen auf dem Desktop interagieren. Zuvor hatten wir die textbasierte Eingabeaufforderung der alten Schule.
Der Wechsel von Text zu Grafik war ein großer Schritt, den Apple-Gründer Steve Jobs 1984 mit seinem bekannten Macintosh-Betriebssystem initiierte. In den letzten Jahren haben wir auch eine innovative Benutzeroberfläche erlebt, bei der Touch (z. B. Smartphones) zum Einsatz kam. Stimme (zB Siri) und sogar Gesten (zB Microsoft Kinect). Sie befinden sich jedoch ziemlich in ihren primären Entwicklungsstadien.
Trotzdem geben sie uns einen Hinweis darauf, wie die nächste Revolution der Benutzeroberfläche aussehen kann. Neugierig? Hier sind 8 Hauptmerkmale der zukünftigen Benutzeroberfläche der nächsten Generation:
1. Gestenschnittstellen
Der 2002 im Science-Fiction-Film "Minority Report" dargestellte Film zeigt eine Zukunft, in der Interaktionen mit Computersystemen hauptsächlich durch Gesten erfolgen. Tom Cruise, der Protagonist, trägt ein Paar futuristische Handschuhe und zeigt mit seinen Händen verschiedene Gesten, um Bilder, Videos und Datenblätter auf seinem Computersystem zu manipulieren.
Vor einem Jahrzehnt mag es ein wenig weit hergeholt sein, eine solche Benutzeroberfläche zu haben, bei der räumliche Bewegungen so nahtlos erkannt werden. Mit dem Aufkommen von Bewegungssensoren wie der Wii-Fernbedienung im Jahr 2006, Kinect und PlayStation Move im Jahr 2010 bewegen sich die Benutzeroberflächen der Zukunft möglicherweise gerade in diese Richtung.
Bei der Gestenerkennung erfolgt die Eingabe in Form von Hand oder einer anderen körperlichen Bewegung, um Rechenaufgaben auszuführen, die bisher noch über ein Gerät, einen Touchscreen oder eine Sprache eingegeben werden. Das Hinzufügen der Z-Achse zu unserer vorhandenen zweidimensionalen Benutzeroberfläche wird zweifellos die Mensch-Computer-Interaktionserfahrung verbessern. Stellen Sie sich vor, wie viele weitere Funktionen unseren Körperbewegungen zugeordnet werden können.
Nun, hier ist ein Demo-Video von G-Speak, einem Prototyp der Computer-Schnittstelle, die im Minority Report zu sehen ist. Entworfen wurde er von John Underkoffler, dem wissenschaftlichen Berater des Films. Sehen Sie sich an, wie er durch seine Handgesten durch Tausende von Fotos in einer 3D-Ebene navigiert und mit Teamkollegen zusammenarbeitet. Aufgeregt? Nach Ansicht von Underkoffler wird eine solche Benutzeroberfläche innerhalb der nächsten fünf Jahre kommerziell verfügbar sein.
2. Gehirn-Computer-Schnittstelle
Unser Gehirn erzeugt mit unseren Gedanken alle möglichen elektrischen Signale, so sehr Jeder spezifische Gedanke hat seine eigene Gehirnwelle Muster. Diese Es können eindeutige elektrische Signale zugeordnet werden, um bestimmte Befehle auszuführen so dass das Denken des Gedankens den gesetzten Befehl tatsächlich ausführen kann.
In einem EPOC-Neuroheadset, das von Tan Le, dem Mitbegründer und Präsidenten von Emotiv Lifescience, erstellt wurde, müssen die Benutzer einen Ein futuristisches Headset, das die von ihren Gedanken erzeugten Gehirnwellen erkennt.
Wie Sie in diesem Demo-Video sehen können, ist der Befehl, der von think ausgeführt wird, ziemlich primitiv (d. H., Den Würfel in Richtung des Benutzers zu ziehen) und dennoch scheint die Erkennung auf einige Schwierigkeiten zu stoßen. Es sieht so aus, als könnte diese Benutzeroberfläche eine Weile dauern, bis sie ausreichend entwickelt ist.
Stellen Sie sich auf jeden Fall eine (ferne) Zukunft vor, in der man könnte Computersysteme nur mit Gedanken betreiben. Von dem Konzept eines "intelligenten Heims", in dem man die Lichter ein- oder ausschalten kann, ohne morgens aus dem Bett steigen zu müssen, bis hin zu der Idee, in ein ultimatives Spielerlebnis einzutauchen, das auf die Stimmung (über Gehirnwellen) reagiert, Das Potenzial für eine solch großartige Benutzeroberfläche ist praktisch unbegrenzt.
3. Flexible OLED-Anzeige
Wenn die Touchscreens auf Smartphones starr sind und immer noch nicht ausreichend auf Ihre Befehle reagieren, sind Sie wahrscheinlich der erste, der flexible OLED-Displays (Organic Light Emitting Diode) testet. Die OLED ist ein organischer Halbleiter, der selbst beim Rollen oder Strecken noch Licht zeigen kann. Kleben Sie es auf ein biegbares Substrat aus Kunststoff, und Sie haben einen brandneuen und weniger starren Smartphone-Bildschirm.
Darüber hinaus können diese neuen Bildschirme gedreht, gebogen oder gefaltet werden, um mit dem Computersystem darin zu interagieren. Biegen Sie das Telefon, um es zu vergrößern und verkleinern, drehen Sie eine Ecke, um die Lautstärke zu erhöhen, drehen Sie die andere Ecke, um es zu reduzieren, drehen Sie beide Seiten, um durch die Fotos zu scrollen und vieles mehr.
Diese flexible Benutzeroberfläche ermöglicht es uns Natürlich können Sie auch dann mit dem Smartphone interagieren, wenn unsere Hände für den Touchscreen zu beschäftigt sind. Dies könnte die Antwort auf die Empfindlichkeit (oder deren Mangel) von Smartphone-Bildschirmen gegenüber behandschuhten Fingern sein oder wenn die Finger zu groß sind, um die richtigen Tasten zu erreichen. Mit dieser Benutzeroberfläche müssen Sie lediglich das Telefon mit der Handfläche zusammendrücken, um einen Anruf entgegenzunehmen.
4. Augmented Reality (AR)
Wir erleben AR bereits auf einigen unserer Smartphone-Apps wie Wikitude, aber es befindet sich ziemlich in der Grundphase der Entwicklung. AR erhält den größten Bekanntheitsgrad durch das bevorstehende Googles Project Glass, eine tragbare Brille, die es erlaubt siehe virtuelle Erweiterungen der Realität, mit der Sie interagieren können. Hier ist eine großartige Demo, was Sie erwartet.
AR kann sich auf etwas anderem als einer Brille befinden, solange das Gerät dazu in der Lage ist in Echtzeit mit einer realen Umgebung interagieren. Stellen Sie sich ein durchsichtiges Gerät vor, das Sie über Objekte, Gebäude und Ihre Umgebung halten können, um nützliche Informationen zu erhalten. Wenn Sie beispielsweise auf ein fremdes Schild stoßen, können Sie durch das Glasgerät schauen, um sie übersichtlich zu sehen, damit Sie sie leicht lesen können.
AR kann Ihre natürliche Umgebung auch nutzen, um mobile Benutzeroberflächen zu erstellen, mit denen Sie interagieren können, indem Sie Displays auf Wände und sogar Ihre eigenen Hände projizieren.
Mit SixthSense, einem Prototyp einer tragbaren, gestischen Schnittstelle, die vom MIT entwickelt wurde und AR verwendet, erfahren Sie, wie das geht.
5. Sprachbenutzeroberfläche (VUI)
Seit der Videopräsentation "Put That There" von Chris Schmandt im Jahr 1979 hat die Spracherkennung noch keinen revolutionären Erfolg. Der neueste Hype um VUI muss Siri sein, eine persönliche Assistentenanwendung, die in Apples iOS integriert ist. Es verwendet eine natürlichsprachliche Benutzeroberfläche für die Spracherkennungsfunktion, um Aufgaben ausschließlich auf Apple-Geräten auszuführen.
Sie sehen es jedoch auch als unterstützenden Akt in anderen Benutzeroberflächen-Technologien wie Google Glass. Glas funktioniert im Grunde wie ein Smartphone, nur Sie müssen es nicht halten und mit Ihren Fingern damit interagieren. Stattdessen klammert sich an Sie als Brille und empfängt Ihre Befehle per Sprachsteuerung.
Das einzige, was jetzt in VUI fehlt, ist das Zuverlässigkeit, um zu erkennen, was Sie sagen. Vervollkommnen Sie das und es wird in Benutzeroberflächen der Zukunft integriert. Bei der Geschwindigkeit, mit der sich die Fähigkeiten von Smartphones nun erweitern und weiterentwickeln, ist es nur eine Frage der Zeit, bis VUI in den Mittelpunkt des Interesses gerät primäre Form der Mensch-Computer-Interaktion für jedes Computersystem.
6. Tangible User Interface (TUI)
Stellen Sie sich vor, Sie hätten ein Computersystem verbindet die physische Umgebung mit dem digitalen Bereich, um Objekte der realen Welt erkennen zu können. In Microsoft Pixelsense (früher bekannt als Surface) kann die interaktive Computeroberfläche Objekte erkennen und identifizieren, die auf dem Bildschirm platziert werden.
In Microsoft Surface 1.0, Licht von Objekten wird von mehreren Infrarotkameras reflektiert. Dies ermöglicht das System Erfassen und Reagieren auf Elemente, die auf dem Bildschirm platziert werden.
In einer erweiterten Version der Technologie (Samsung SUR40 mit Microsoft PixelSense) umfasst der Bildschirm Sensoren anstelle von Kameras, um zu erkennen, was den Bildschirm berührt. Auf dieser Oberfläche können Sie digitale Bilder mit Pinseln erstellen, die auf der Eingabe des eigentlichen Pinsels basieren.
Das System ist auch programmiert, um Größen und Formen zu erkennen und mit eingebetteten Tags zu interagieren z.B. Eine mit einem Tag versehene Visitenkarte auf dem Bildschirm zeigt die Informationen der Karte an. Auf den Oberflächen platzierte Smartphones könnten dazu führen, dass das System die Bilder in der Galerie des Telefons nahtlos auf dem Bildschirm anzeigt.
7. Tragbarer Computer
Wie der Name schon sagt, sind tragbare Computer elektronische Geräte, die Sie wie ein Accessoire oder Kleidungsstück tragen können. Es können Handschuhe, Brillen, eine Uhr oder auch ein Anzug sein. Das Hauptmerkmal der tragbaren Benutzeroberfläche ist, dass dies der Fall sein sollte Halte deine Hände frei und wird Ihre täglichen Aktivitäten nicht behindern. Mit anderen Worten, es wird als dienen Nebentätigkeit für Sie, als und wann Sie darauf zugreifen möchten.
Stellen Sie sich eine Uhr vor, die wie ein Smartphone funktionieren kann. Sony hat bereits in diesem Jahr eine Android-basierte SmartWatch veröffentlicht, die über Bluetooth mit Ihrem Android-Handy gekoppelt werden kann. Es kann Benachrichtigungen über neue E-Mails und Tweets bereitstellen. Wie bei allen Smartphones können Sie kompatible Apps für einfachen Zugriff auf Sony SmartWatch herunterladen.
Erwarten Sie in naher Zukunft eine tragbarere Benutzeroberfläche, da Mikrochips mit intelligenten Funktionen nano-kleiner werden und in den Alltag passen.
8. Sensor Network User Interface (SNUI)
Hier ein Beispiel für eine flüssige Benutzeroberfläche, bei der mehrere kompakte Kacheln aus farbigen LCD-Bildschirmen, eingebauten Beschleunigungssensoren und IrDA-Infrarot-Transceivern bestehen interagieren, wenn sie sich in unmittelbarer Nähe befinden. Lass uns das einfach machen. Es ist wie bei Scrabble-Kacheln mit Bildschirmen, die sich ändern, um Daten wiederzugeben, wenn sie nebeneinander angeordnet sind.
Wie Sie in diesem Demo-Video von Siftables sehen können, können Benutzer dies tun Sie können mit den Fliesen physisch interagieren, indem Sie sie neigen, schütteln, anheben und stoßen es mit anderen ähnlichen Fliesen. Diese Kacheln können sehr interaktiv sein Lernhilfsmittel für kleine Kinder, die sofort auf ihre Handlungen reagieren können.
SNUI ist auch gut für Einfache Puzzlespiele, bei denen das Spielen das Verschieben und Drehen von Kacheln beinhaltet gewinnen. Dann gibt es auch die Möglichkeit zu Sortieren Sie Bilder physisch, indem Sie diese Kacheln zusammenfassen nach Ihren Wünschen. Es ist eine mehr Crowd-fähige TUI. Statt eines Bildschirms besteht er aus mehreren kleineren Bildschirmen, die miteinander interagieren.
Am meisten erwartete Benutzeroberfläche?
Da diese Benutzeroberfläche für die neue Generation von Benutzern intuitiver und natürlicher wird, werden wir mit einer tiefgreifenderen Computererfahrung behandelt, die unsere Fähigkeit, die Flut von Wissen, das sie teilen müssen, ständig zu verdauen vermag, ständig prüft. Es wird überwältigend und manchmal aufregend sein, und es ist definitiv etwas, auf das man sich bei den neuen Technologien freuen kann.
Mehr!
Interessiert, was die Zukunft für uns bereithält? Schauen Sie sich die Links unten an.
- 5 Top Augmented Reality Apps für das Bildungswesen
- 5 Hauptmerkmale, die Sie in Zukunft auf Smartphones erwarten
- TED-Videos, die Sie nicht verpassen sollten
Für welche dieser großartigen UI sind Sie am meisten aufgeregt? Oder haben Sie noch andere Ideen für die Benutzeroberfläche der nächsten Generation? Teilen Sie Ihre Gedanken hier in den Kommentaren mit.