Les tests utilisateurs sont une méthode fréquemment utilisée pour voir les problèmes des interfaces – interface écran ou autre – c’est à dire les points ou les utilisateurs sont déboussolés où ne s’y retrouvent plus, afin d’améliorer l’expérience.
On peut solliciter un spécialiste pour préparer les scénarios et questionnaires, recruter et convoquer les testeurs, recueillir les données. Tout ceci afin de faire un rapport qui ensuite sert de point d’appui pour prendre des décisions de design. La méthode guérilla étant, bien entendu, plus souple et moins onéreuse. (Voir C. Lallemand – Méthodes de design UX – 2015)
Mais, si on pouvait faire tester les interfaces par un programme intelligent au lieu d’un groupe de personnes? Un programme suffisamment avancé pour reconnaître les failles avant le passage au public?
En effet, dans l’idéal, cela rendrait les tests plus rapides, moins coûteux, et peut être plus fiables? Du moins c’est ce que laisse entendre l’article du blog de Google [Using Deep Learning to Improve Usability on Mobile Devices] sur l’utilisation de l’intelligence artificielle – plus spécifiquement le deep learning – dans les tests d’interfaces tactiles qui utilisent le tap – le click tactile .
Sur une appli ou un site mobile on arrive à reconnaître ce qui est bouton et ce qui n’est pas bouton grâce aux affordances : l’affichage et/ou la disposition d’un élément sur l’écran nous indique qu’on peut appuyer dessus et que cela déclenche une réaction du système.
C’est là qu’intervient l’intelligence artificielle. Elle serait capable de prédire à 90% quels éléments sont, aux yeux des utilisateurs, clickables ou non. Il serait ainsi facile de déceler un décalage entre la perception de l’affordance et la réalité, par exemple une image non clickable mais qui, de part sa disposition, suggère la possibilité du click/tap.
Bien entendu, cette intelligence artificielle se base sur un ensemble de données recueillies au préalable : de vrais tests auprès d’utilisateurs – beaucoup – sur leur perception de l’affordance du tap dans diverses interfaces mobiles ciblées. Ces données sont donc choisies, formant un corpus sur lequel l’IA se base, pour déduire des modèles et associer les réactions aux modèles prédits.
D’ailleurs elle ne se concentre que sur un corpus d’interfaces qui utilisent le tap, principalement parce que c’est une tendance ou design pattern – une solution de design appliquée couramment – qui existe et qui s’est bien imposé dans les interfaces mobiles. Double tap, scroll, drag etc. ne sont pas pris en considération, ni autre design pattern différent, passé ou futur.
En gros, le choix des données, le choix du corpus formant l’objet d’apprentissage de l’IA est sélectionné spécifiquement pour que l’ordinateur puisse reconnaître ce design pattern ainsi que les réactions des utilisateurs. C’est très ciblé.
Il faudra sûrement attendre un – petit – peu avant de voir une IA plus poussée, capable de déceler des problèmes utilisateur dans des domaines plus vastes, et qui puisse devenir un outil au service des designers.
Et cela sans parler des design patterns futurs, car en effet, les design patterns ne s’installent pas du jour au lendemain. Aujourd’hui le tap est courant, demain ce sera un autre type d’interaction qui fera partie des acquis de la population utilisant le numérique.
Voir aussi
Freelance interactive designer / passionate about electronic textiles, making and cats