Après les GUI et les NUI voici les XUI
On nous tanne en ce moment avec la transition des GUI (interfaces graphiques classiques) vers les NUI – Natural User Interfaces. L’objectif est de faire des interfaces à base de gestes et d’objets avec des comportements réalistes. Moins de commandes, moins de boutons. Comme par magie, tout devient naturel et intuitif (cf manipulation de photos sur une table tactile).
A peine cette idée arrivée dans les conférences grands publics, voici déjà l’annonce de la prochaine étape : les XUIs, des interfaces qui anticipent les envies de l’utilisateur et lui permette d’augmenter le réel plutôt que de simuler le réel par du virtuel (un peu dans la veine de ce qu’on voit aujourd’hui en Réalité augmentée mais en plus poussé et généralisé).
Cette annonce nous vient de Denis Wixon, chef de l’équipe Expérience Utilisateur de Microsoft Surface. Jugez par vous même :
Juste pour préciser, loin de moi l’idée de critiquer le but louable des NUI, j’y crois vraiment. C’est juste que le simple fait de prononcer ce mot ne règle pas tous les problèmes d’un coup de baguette magique. Pour ça, il faudra du travail… et des ergonomes bien payés ;-)
« Article précédent: Twitter quand tu nous tiens
Article suivant: Madison Avenue, WTF? »
Participer à la discussion
Ceci sera votre avatar par défaut si vous n’en possédez pas. Afin de pouvoir choisir votre image, créez votre avatar en quelques clics
.
4 Commentaires
C’est marrant de voir dans la vidéo qu’il y a toujours un rapport physique aux objets. Et c’est le facteur limitant.
La véritable avancée serait de supprimer cette étape inutile et de travailler uniquement avec notre pensée. En connexion directe. Toute les idées d’interface qui nécessite un contact physique ne seront jamais suffisamment performantes.
Et ouais mec , l’heure de la dématérialisation approche :D
Personnellement, j’ai l’impression que les sens du toucher et de l’odorat sont essentiels à notre compréhension du monde et à notre interaction avec lui. Ces interfaces de Réalitée Augmentée vont justement nous permettre d’exploiter le toucher. Ce n’est pas forcément utile pour toutes les tâches (ex : taper du texte serait sûrement plus pratique avec une interface de lecture de pensée) mais pour certaines tâches plus complexes comme le design 3D, je pense que le côté toucher du réel apporterait un gros plus.
Bien sûr l’idéal étant que l’application lise et écrive directement dans le cerveau (ça fait un peu peur quand même…) afin que l’on puisse réellement utiliser tous nos sens de manière efficace mais là, ça risque de prendre plusieurs dizaines d’années au vue de l’état de l’art actuel…
J’ai du rater un truc là. C’est quoi cette vidéo ? Le délire d’un gars ?
Contrairement à la dernière vidéo que tu avais postée, on perd toute attache à la réalité. Des objets matériels qui se transforment en hologrammes et inversement. On ne se heurte même plus à une barrière technique ici mais physique (cf 0 :37 et 0 :42).
Ca devient trop facile, c’est la porte ouverte à toutes les fenêtres ! ;)
Oui délire complet. Après tu peux imaginer que l’image est projetée par dessus le post-it, ce n’est donc pas le post-it physique qui est transformé. Mais bon, ca reste perché. Un peu de l’art abstrait :). Et encore j’ai choisi la vidéo la plus « claire » par rapport à celle-ci :
http://www.youtube.com/watch?v=QJRyHJqPzSI&feature=related