Utiliser le regard pour comprendre l’utilisateur

La vidéo est un peu vieille, mais je vais profiter de la sortie du Samsung Galaxy Pad, tablette équipée d’une caméra frontale, pour vous parler des travaux de Ralf Biedert sur l’utilisation du regard comme moyen d’interaction (eye-tracking ou oculométrie en français). L’idée est simple : analyser le regard de l’utilisateur pendant sa lecture pour lui apporter des informations adaptées. Les possibilités sont immenses. Dans la vidéo qui va suivre, on peut voir plusieurs idées intéressantes :

  • Afficher la définition d’un mot quand l’utilisateur bloque dessus
  • Mettre en avant des mots clefs pour permettre une lecture rapide
  • Lier des images au paragraphe en cours de lecture

Attention aux mouvements incontrôlables

Etant donné que l’oeil humain fait beaucoup de mouvements inconscients, il faudra bien choisir les fonctionnalités à brancher sur le regard. Afficher des informations supplémentaires comme dans la vidéo permet de ne pas avoir de conséquences graves pour l’utilisateur. Certains chercheurs imaginent même utiliser ces informations inconscientes pour connaître les émotions qui traversent la tête de l’utilisateur (peur, joie, énervement etc…). Recherches encore balbutiantes mais qui pourraient améliorer la satisfaction des utilisateurs et augmenter les sensations dans certains jeux vidéos.

Aide à la sélection

De façon plus générale, l’eye-tracking va sans doute se développer rapidement dans le futur. En effet, il est très naturel de pointer un objet en le regardant. L’eye-tracking va donc être un complément efficace pour des systèmes où la sélection est problématique :

  • Technologies tactiles : sélection de petites cibles difficile avec de gros doigts
  • Interfaces gestuelles : sélection précise difficile dans l’espace et sans support
  • Télévision interactive : sélection d’un élément longue et fastidieuse avec un clavier ou une télécommande

Tactile, gestuelle et télécommande : 3 systèmes où la sélection est difficile

En regardant cette liste, on constate qu’elle correspond parfaitement aux nouveaux types d’interactions qui sont en train de se démocratiser. L’arrivée d’une solution d’eye-tracking précise, peu coûteuse et robuste aux changements d’environnement changerait complètement la donne et serait un vrai eldorado pour les concepteurs d’interfaces. Encore une aventure à suivre.




Tags:

6 Commentaires

  1. Steren dit :

    Ma copine a bossé sur un projet d’eye tracking. J’ai pu un peu expérimenter sur la chose.

    Techniquement, il faut plus qu’une camera video, il faut aussi un emeteur infra rouge qui va se refléter dans l’oeil de l’utilisateur. Et il fallait aussi etre vraiment figé. Enfin les technos ont certainement evoluées ou le feroont bientot. En tout cas ca n’est pas facilement faisable avec un iPhone ou un galaxy sans hardware supplémentaire je pense.

    On avait testé le defilement automatique d’une page web ainsi que l’information audio suite a un regard prolongé sur un element.

  2. Et tu as trouvé le système de défilement pratique ?

    Personnellement, j’ai utilisé un système pour handicapés pour jouer à la réussite avec les yeux il y a 3 ans. Le système de pointage d’une carte était très naturel, le problème était d’activer une carte en clignant des yeux… plus difficile.

    En tout cas, effectivement à l’époque il fallait du gros matériel, j’ai demandé à Ralf Biedert s’ils avaient un système qui pouvait fonctionner avec des caméras classiques. J’attends sa réponse et j’espère qu’ils n’ont pas besoin d’un émetteur infra-rouge comme tu le décrit.

  3. L’eye tracking peut se faire sans infra rouge en utilisant du traitement d’image de manière plus « classique » à l’aide d’une webcam…

    Le problème étant de « reconnaitre » la couleur de la pupille sur l’image… détecter deux zones a fort contraste de couleur (pupille bleu sur font blanc ^^) semble « facilement » réalisable a faible cout. A noter que sur l’exemple suivant, pour affiner la précision, la position du visage est également détectée en plus de la position des yeux.

    http://professeurs.esiea.fr/wassner/?2008/06/05/150-dmo-d-eye-tracking

    http://professeurs.esiea.fr/wassner/?2008/05/16/139-eye-tracking-la-v2

  4. Réponse de Ralf Biedert sur la question de l’eye-tracking pour les caméras « grand public » :
    « Right now the system, as presented, requires a high precision eye tracker like the Tobii system we employ.

    We haven’t checked out the latest Tablet / iPhone / Android cameras, but given the experiences we had with web cams a few years ago, I pretty much doubt they will deliver a precision anywhere close to word level, especially in « real-world » scenarios with changing light conditions, head movement and various eye types (e.g., eye-shape, iris- and skin-color).

    As we are mostly a (software) research institute we are not actively working on driving the eye tracking hardware mass market.  »

    En gros, pour les non-anglophones : leur technique ne marchera pas aujourd’hui avec des caméras grand-publics car ils ont besoin d’une précision très fine pour repérer le mot regardé par le lecteur.

  5. Robin Azéma dit :

    J’ai pu faire quelques tests avec un eye-tracker (je crois que c’était le Tobii X120) mais, passé l’excitation des premiers instants (fan des heat maps) je suis resté assez déçu car il m’a semblé que les données étaient quand même légères, dans le sens où j’ai eu quelques trous, comme si dès que le testeur clignait des yeux, l’appareil mettait un temps (trop long) à recalibrer son regard.

    Quoi qu’il en soit, je suis d’accord pour dire que c’est nécessairement une technologie d’avenir. Article intéressant.

  6. @Azema Effectivement encore du boulot niveau logiciel et hardware…

    Sinon, j’ai pu tester un Samsung Galaxy Tab et vu la qualité de l’appareil photo, je pense que ca ne sera pas la première tablette à permettre l’eye tracking… dommage

Participer à la discussion

Connect with Facebook






Ceci sera votre avatar par défaut si vous n’en possédez pas. Afin de pouvoir choisir votre image, créez votre avatar en quelques clics

.

Auteur: Cédric Soubrié

Consultant en Expérience Utilisateur, je me suis spécialisé dans le tactile et la visualisation d'informations. Je donne également des cours pour promouvoir les méthodes de conception centrée utilisateurs. Voir mon profil LinkedIn.