Startpagina » UI / UX » 8 Next-Generation-gebruikersinterface die (bijna) hier is

    8 Next-Generation-gebruikersinterface die (bijna) hier is

    Wanneer we het hebben over gebruikersinterface (UI) in computergebruik, hebben we het over hoe een computerprogramma of -systeem zichzelf vertegenwoordigt voor de gebruiker, meestal via afbeeldingen, tekst en geluid. We kennen allemaal het typische Windows- en Apple-besturingssysteem, waar we met onze muiscursors communiceren met pictogrammen op onze desktop. Voordien hadden we de old-school op tekst gebaseerde commandoregelprompt.

    De verschuiving van tekst naar grafische afbeeldingen was een grote stap voorwaarts geïnitieerd door de oprichter van Apple, Steve Jobs, met zijn kenmerkende Macintosh-besturingssysteem in 1984. In de afgelopen jaren hebben we ook een geïnnieu- veerde gebruikersinterface gezien die bestond uit het gebruik van aanraking (bijv. Smartphones), stem (bijv. Siri) en zelfs gebaren (bijv. Microsoft Kinect). Ze bevinden zich echter nog in de beginfase van hun ontwikkeling.

    Niettemin geven ze ons een idee van hoe de volgende revolutie van UI kan zijn. Nieuwsgierig? Hier zijn 8 belangrijke kenmerken van hoe de gebruikersinterface van de volgende generatie eruit zal zien:

    1. Gebaarinterfaces

    In de sci-fi film uit 2002, Minority Report, werd een toekomst geschetst waarin interacties met computersystemen voornamelijk plaatsvinden door het gebruik van gebaren. Met een paar futuristische handschoenen ziet Tom Cruise, de hoofdpersoon, verschillende gebaren met zijn handen om afbeeldingen, video's, datasheets op zijn computersysteem te manipuleren.

    Een decennium geleden leek het misschien een beetje vergezocht om zo'n gebruikersinterface te hebben waar ruimtelijke bewegingen zo naadloos worden gedetecteerd. Met de komst van bewegingsdetectieapparaten zoals Wii-afstandsbediening in 2006, Kinect en PlayStation Move in 2010, kunnen gebruikersinterfaces van de toekomst vandaag gewoon die kant op gaan.

    Bij gebarenherkenning heeft de invoer de vorm van een hand of een andere lichamelijke beweging om computertaken uit te voeren, die tot op heden nog steeds worden ingevoerd via apparaat, aanraakscherm of stem. De toevoeging van de z-as aan onze bestaande tweedimensionale gebruikersinterface zal ongetwijfeld de interactie tussen mens en computer verbeteren. Stelt u zich eens voor hoeveel meer functies kunnen worden toegewezen aan onze lichaamsbewegingen.

    Welnu, hier is een demovideo van g-speak, een prototype van de computerinterface te zien in Minority Report, ontworpen door John Underkoffler, die in feite de wetenschapsadviseur van de film was. Kijk hoe hij door duizenden foto's in een 3D-vlak navigeert door zijn handgebaren en samen te werken met andere 'handgebaren' over teamtaken. Opgewonden? Underkoffler is van mening dat dergelijke gebruikersinterface binnen vijf jaar commercieel verkrijgbaar zal zijn.

    2. Hersenen-computerinterface

    Ons brein genereert allerlei elektrische signalen met onze gedachten, zo erg zelfs elke specifieke gedachte heeft zijn eigen hersengolf patroon. Deze unieke elektrische signalen kunnen worden toegewezen om specifieke opdrachten uit te voeren zodat denken dat de gedachte het ingestelde commando daadwerkelijk kan uitvoeren.

    In een EPOC-neurohoofdset, gemaakt door Tan Le, medeoprichter en president van Emotiv Lifescience, moeten gebruikers een futuristische hoofdtelefoon die hun hersengolven detecteert die door hun gedachten worden gegenereerd.

    Zoals je kunt zien in deze demovideo, is de opdracht die door het denken wordt uitgevoerd vrij primitief (d.w.z. de kubus naar de gebruiker trekken) en toch lijkt de detectie problemen op te leveren. Het lijkt erop dat deze gebruikersinterface enige tijd nodig heeft om adequaat te worden ontwikkeld.

    Overweeg in ieder geval een (verre) toekomst waar men zou kunnen bedien computersystemen met alleen gedachten. Van het concept van een 'smart home' waar je 's morgens licht aan of uit kunt doen zonder' s ochtends uit je bed te hoeven stappen, naar het idee jezelf onder te dompelen in een ultieme game-ervaring die reageert op je humeur (via hersengolven), het potentieel voor zo'n geweldige gebruikersinterface is praktisch onbeperkt.

    3. Flexibel OLED-scherm

    Als touchscreens op smartphones rigide zijn en nog steeds niet voldoende reageren op uw opdrachten, bent u waarschijnlijk de eerste in de rij om flexibele OLED-displays (organic light-emitting diode) uit te proberen. De OLED is een organische halfgeleider die nog steeds licht kan weergeven, zelfs wanneer deze wordt opgerold of uitgerekt. Plak het op een plastic buigbaar substraat en je hebt een gloednieuw en minder rigide smartphonescherm.

    Bovendien kunnen deze nieuwe schermen worden gedraaid, gebogen of gevouwen om te interageren met het computersysteem. Buig de telefoon om in en uit te zoomen, draai een hoek om het volume hoger te zetten, draai de andere hoek om de hoek naar beneden te draaien, draai beide kanten om door foto's en meer te bladeren.

    Met zo'n flexibele gebruikersinterface kunnen we dat natuurlijk communiceren met de smartphone, zelfs als onze handen te veel bezig zijn met het gebruik van het touchscreen. Dit zou wel eens het antwoord kunnen zijn op de gevoeligheid (of het ontbreken daarvan) van smartphoneschermen voor gehandschoende vingers of wanneer vingers te groot zijn om de juiste knoppen te bereiken. Met deze gebruikersinterface hoeft u alleen maar met uw handpalm in te drukken om een ​​gesprek op te nemen.

    4. Augmented Reality (AR)

    We ondervinden al AR op sommige van onze smartphone-apps zoals Wikitude, maar het is vrijwel in de elementaire stadia van ontwikkeling. AR krijgt de grootste boost in het bewustzijn via het projectglaasje van Google, een paar draagbare brillen waar je maar één kunt gebruiken zie virtuele extensies van de realiteit waarmee je kunt communiceren. Hier is een geweldige demo van wat te verwachten.

    AR kan op iets anders zijn dan een bril, zolang het apparaat dit kan interactie in real-time met een real-world omgeving. Stel een stukje doorschijnend apparaat voor dat je over objecten, gebouwen en je omgeving kunt houden om je nuttige informatie te geven. Wanneer u bijvoorbeeld een buitenlands uithangbord tegenkomt, kunt u door het glazen apparaat kijken om ze te laten vertalen zodat u ze gemakkelijk kunt lezen.

    AR kan ook gebruik maken van uw natuurlijke omgeving om mobiele gebruikersinterfaces te maken waar u interactie mee kunt hebben door schermen op muren en zelfs uw handen te projecteren.

    Bekijk hoe het gedaan is met SixthSense, een prototype van een draagbare gebareninterface ontwikkeld door MIT dat gebruik maakt van AR.

    5. Voice User Interface (VUI)

    Sinds de 'Put That There'-videopresentatie van Chris Schmandt in 1979 moet spraakherkenning nog een revolutionair succes kennen. De meest recente hype over VUI moet Siri zijn, een applicatie voor persoonlijke assistenten die is opgenomen in iOS van Apple. Het gebruikt een natuurlijke taal gebruikersinterface voor zijn stemherkenningsfunctie om taken exclusief uit te voeren op Apple-apparaten.

    Je ziet het echter ook als de ondersteunende handeling in andere gebruikersinterfacetechnologieën zoals Google Glass zelf. Glas werkt eigenlijk als een smartphone, alleen hoef je het niet op te houden en ermee te werken met je vingers. In plaats daarvan klampt zich vast als eyewear en ontvangt uw commando's via spraakbesturing.

    Het enige dat nu ontbreekt in VUI is het betrouwbaarheid van het herkennen van wat je zegt. Perfectioneer dat en het zal in gebruikersinterfaces van de toekomst worden opgenomen. In de snelheid dat de smartphones-mogelijkheden zich nu uitbreiden en ontwikkelen, is het slechts een kwestie van tijd voordat VUI centraal staat als primaire vorm van mens-computerinteractie voor elk computersysteem.

    6. Tastbare gebruikersinterface (TUI)

    Stel je voor dat je een computersysteem hebt dat combineert de fysieke omgeving met het digitale rijk om de herkenning van objecten uit de echte wereld mogelijk te maken. In Microsoft Pixelsense (voorheen bekend als Surface), kan het interactieve computeroppervlak objecten herkennen en identificeren die op het scherm worden geplaatst.

    In Microsoft Surface 1.0, licht van objecten wordt weerspiegeld in meerdere infraroodcamera's. Dit maakt het systeem mogelijk om de items op het scherm vast te leggen en erop te reageren.

    In een geavanceerde versie van de technologie (Samsung SUR40 met Microsoft PixelSense), bevat het scherm sensoren, in plaats van camera's om te detecteren wat het scherm raakt. Op dit oppervlak kunt u digitale schilderijen maken met penselen op basis van de invoer door de eigenlijke penseel.

    Het systeem is ook geprogrammeerd om formaten en vormen te herkennen en om te werken met ingesloten tags bijv. een getagde naamkaart op het scherm geeft de kaartinformatie weer. Smartphones die op de oppervlakken worden geplaatst, kunnen ervoor zorgen dat het systeem de afbeeldingen in de galerij van de telefoon naadloos op het scherm weergeeft.

    7. Draagbare computer

    Zoals de naam al doet vermoeden, zijn draagbare computers dat wel elektronische apparaten die je als een accessoire of kleding op je kunt dragen. Het kan een paar handschoenen zijn, een bril, een horloge of zelfs een pak. Het belangrijkste kenmerk van draagbare gebruikersinterface is dat dit zou moeten houd je handen vrij en zal je dagelijkse activiteiten niet hinderen. Met andere woorden, het zal dienen als een nevenactiviteit voor jou, als en wanneer je er toegang toe wilt.

    Zie het als een horloge dat werkt als een smartphone. Sony heeft eerder dit jaar al een Android-aangedreven SmartWatch uitgebracht die via Bluetooth met je Android-telefoon kan worden gekoppeld. Het kan meldingen van nieuwe e-mails en tweets bieden. Zoals met alle smartphones, kunt u compatibele apps downloaden naar Sony SmartWatch voor eenvoudige toegankelijkheid.

    Verwacht in de nabije toekomst meer draagbare gebruikersinterface, omdat microchips met slimme functies nano-kleiner worden en in dagelijkse slijtage passen.

    8. Sensor Network User Interface (SNUI)

    Hier is een voorbeeld van een vloeiende UI waarin u meerdere compacte tegels hebt, bestaande uit LCD-kleurenschermen, ingebouwde accelerometers en IrDA infrarood-transceivers die in staat zijn om op elkaar inwerken wanneer ze in de buurt worden geplaatst. Laten we dit eenvoudig maken. Het is net als Scrabble-tegels met schermen die worden gewijzigd om gegevens weer te geven wanneer ze naast elkaar worden geplaatst.

    Zoals u in deze demovideo van Siftables zult zien, kunnen gebruikers dat fysiek interactie met de tegels door kantelen, schudden, heffen en stoten het met andere soortgelijke tegels. Deze tegels kunnen als zeer interactief dienen leermiddel voor jonge kinderen die onmiddellijke reacties op hun acties kunnen ontvangen.

    SNUI is ook geweldig voor eenvoudige puzzelgames waarbij gameplay verschuivende en roterende tegels omvat winnen. Dan is er ook de mogelijkheid om Sorteer afbeeldingen fysiek door deze tegels samen te groeperen volgens uw voorkeuren. Het is een TUI met meer publieksmogelijkheden; in plaats van één scherm is het gemaakt van verschillende kleinere schermen die met elkaar communiceren.

    Meest verwachte gebruikersinterface?

    Omdat deze gebruikersinterface intuïtiever en natuurlijker wordt voor de nieuwe generatie gebruikers, worden we getrakteerd op een meer meeslepende computerervaring die voortdurend zal testen of we de vloed van kennis die ze moeten delen, kunnen verteren. Het zal overweldigend zijn en soms spannend en het is absoluut iets om naar uit te kijken in nieuwe technologieën die komen.

    Meer!

    Wil je weten wat de toekomst ons te wachten staat? Bekijk de links hieronder.

    • 5 Top Augmented Reality-apps voor het onderwijs
    • 5 belangrijke functies om te verwachten in de toekomst smartphones
    • Fantastische TED-video's die je niet mag missen

    Over welke van deze geweldige gebruikersinterfaces heb je het meeste zin? Of heb je nog andere ideeën voor de UI van het next-gen? Deel uw mening hier in de reacties.