L'utilisabilité est la capacité d'un utilisateur à :
Accéder au produit ou au service
Réaliser les tâches nécessaires
Atteindre des objectifs ou des résultats attendus
Par exemple, pour une entreprise de livraison de plats cuisinés, un utilisateur pourrait visiter le site avec l'intention de se faire livrer un repas à domicile. Et même si techniquement il peut passer une commande, cela ne signifie pas que l'expérience (via ses tâches successives à réaliser) sera nécessairement facile ou satisfaisante.
L'utilisabilité peut être divisée en trois thèmes :
Efficacité : est-ce que l'utilisateur peut accomplir des tâches et atteindre un objectif ?
Efficience : quel est l'effort requis ?
Satisfaction : quelle émotion est suscitée ?
Les tests peuvent être qualitatifs et/ou quantitatifs, mais ils consistent toujours à étudier ces trois facteurs pour déterminer si une solution est utilisable ou non. Il existe de nombreux éléments dont on peut tester l'utilisabilité (y compris les premières versions d'un prototype), mais il s'agit toujours de vérifier si les utilisateurs peuvent accomplir les tâches les plus importantes pour atteindre leurs objectifs.
Par exemple, l'un des objectifs d'un site de commande de repas est de permettre l'achat et la livraison à domicile pour se nourrir. Vous pouvez évidemment avoir des sous-objectifs (à l'intérieur d'objectifs plus larges), comme la comparaison de restaurants ou de plats.
Vous pourrez alors diviser le processus en tâches que les gens doit réaliser pour atteindre ces objectifs.
Les tâches à réaliser pour se livrer un repas seraient :
Télécharger l'application
Filtrer les restaurants et les plats
Classer par prix, temps d'attente, ou note
Enregistrer ses restaurants favoris
Trouver les plats
Lire leur description
Ajouter au panier
Procéder au paiement
Vérifier la confirmation d'achat
Suivre la livraison
Recevoir le repas
Toutes ces tâches sont associées à un objectif plus global. Grâce au test d'utilisabilité, vous pouvez demander aux gens de réaliser ces tâches pour mieux comprendre s'ils les accomplissent de manière efficace, simple, rapide et satisfaisante.
Si quelqu'un réussit ces tâches, il pourra atteindre son objectif espéré. Cependant, si l'expérience n'est pas bonne, il pourra ressentir de la frustration - voire abandonner et se tourner vers une autre solution.
Les objectifs d'un test d'utilisabilité
Plusieurs problématiques peuvent justifier l'utilisation de cette méthodologie :
Un utilisateur peut-il utiliser le produit pour obtenir le résultat souhaité ?
Le produit permet-il à l'utilisateur d'atteindre ses objectifs ?
Comment un utilisateur utilise-t-il réellement le produit ? (et non pas comment nous pensons qu'il l'utilise ?)
Comment fonctionne un produit lorsqu'il est entre les mains de l'utilisateur ?
Où se trouvent les bugs et les opportunités d'amélioration de l'expérience utilisateur ?
Cependant, un test d'utilisabilité ne vous permettra pas de comprendre :
Les sentiments d'un utilisateur en dehors de l'accomplissement de tâches très spécifiques avec le produit (ici, il est préférable de faire de la recherche plus stratégique, telle que de la discovery)
Les statistiques d'utilisation (ici, essayez plutôt l'analytics)
Les préférences entre plusieurs versions du produit (ici, essayez le test A/B ou un benchmark)
Le potentiel de marché d'un produit (ici, essayez plutôt les enquêtes)
La propension à payer pour le produit (ici, essayez plutôt la méthode Van Westendorp)
Évidemment, le meilleur point de départ est de créer un plan de recherche, puis de s'appuyer sur ses objectifs pour déterminer s'il y a besoin de faire un test d'utilisabilité. Généralement, les objectifs de recherche les plus pertinents sont :
Identifier les difficultés, frustrations et obstacles rencontrés par les utilisateurs, ainsi que leurs suggestions d'amélioration.
Identifier les fonctionnalités existantes utilisées par les utilisateurs pour atteindre un objectif, comprendre leur expérience et recueillir leurs suggestions d'amélioration.
Évaluer comment les utilisateurs interagissent avec un produit, un service, une application ou un site.
Évaluer comment les utilisateurs naviguent dans un produit, un service, une application ou un site.
Recrutement
Une fois votre plan de recherche finalisé, la prochaine étape consiste à déterminer les profils à recruter, ainsi que le nombre de participants à inviter.
Pour les tests d'utilisabilité, posez-vous les questions suivantes :
"Quels comportements spécifiques ciblons-nous ?"
Des personnes qui ont commandé un repas en ligne le mois précédent...
"Ont-ils eu besoin d'utiliser le produit ? Quand ?"
Des personnes qui ont utilisé le site pour commander un repas le mois précédent...
"Quels sont leurs objectifs ?"
Trouver le repas le plus sain afin de se maintenir en forme...
"Quelles sont leurs habitudes ?"
Retourner fréquemment sur le site (ex : au moins 1 fois par semaine)
À partir de là, vous pourrez commencer à rédiger votre questionnaire de recrutement.
Il est souvent dit qu'il suffit de 5 participants pour mener un test. Cela peut être parfois vrai, mais la réalité est souvent plus complexe. Chez Tactix, nous recommandons de raisonner en termes de "segments d'utilisateurs". Le nombre total de participants devrait être le produit du nombre de segments par le nombre de participants par segment.
Voici quelques recommandations pour les méthodes de recherche évaluative :
1. Test de concept
Modéré : 8+ participants par segment
Non-modéré : 15+ participants par segment
2. Test d'utilisabilité
Modéré : 5+ participants par segment
Non-modéré : 15+ participant par segment
3. Tri de cartes
20-30 participants par segment
4. Benchmark UX
25+ participants par segment (pour des raisons statistiques)
Rédaction du protocole
La rédaction des tâches à accomplir peut être complexe. Voici notre proposition d'approche pour y arriver :
1. Partir d'un "objectif" clair
Commencez par définir l'objectif global de l'expérience attendue par l'utilisateur. Cela diffère du résultat spécifique d'une tâche donnée. Pour ce faire, identifiez les besoins et les motivations de l'utilisateur ainsi que ce qu'il espère tirer de l'expérience.
2. Décrire le contexte
Il est essentiel de bien expliquer les raisons pour lesquelles ils ont besoin de recourir à la solution proposée. Si des tests en conditions réelles ne sont pas possibles, envisagez de décrire une situation fictive basée sur l'utilisation prévue du produit.
3. Clarifier les instructions
La clarté des instructions est essentielle pour obtenir des retours pertinents dès le premier enregistrement. Si vous connaissez des limitations sur la solution à tester (par exemple, un prototype Figma ne permettant pas d'écrire), communiquez-les en amont pour éviter toute frustration inutile chez les participants et pour préserver l'intégrité des résultats du test.
4. Prévoir une conclusion de test
Il est crucial que la complétion des tâches conduise à un résultat final. Il doit être clair, réalisable et compréhensible pour le participant.
5. Rédiger le protocole
Une fois ces étapes de préparation accomplies, il est temps de préparer le protocole de test, y compris les tâches à accomplir. Assurez-vous que ces tâches soient bien MECE (mutuellement exclusives et collectivement exhaustives) vers l'atteinte du résultat final.
Vous pourrez par exemple structurer votre test de la façon suivante :
Partie 1 - Introduction : vous commencez par poser quelques questions sur le participant, afin de le mettre à l'aise avec l'exercice.
Partie 2 - Vérification logistique : vous vérifiez que tout est prêt pour démarrer le test. Par exemple, vous pouvez demander de télécharger la dernière version d'une app, ou encore vérifier que le participant a bien accès au prototype.
Partie 3 - Page d'accueil : vous demandez au participant de donner ses premières impressions sur la première page, pour voir si elle est facile à comprendre et si l'expérience est simple à aborder
Partie 4(+) - Tâches à réaliser : vous demandez ensuite au participant de réaliser un ensemble de tâches, en pensant à voix haute. Il est essentiel de le laisser agir seul, sans dire ni faire quelque chose pouvant biaiser son comportement.
Partie 5 - Conclusion : vous posez des questions sur ce qui vient de se passer pendant le test, et en profitez aussi pour poser les autres questions venant de votre équipe
Si vous ne disposez encore pas d'outil dédié, nous vous conseillons de préparer un tableau à remplir pendant les tests. Il pourra comprendre, par exemple :
Les pages, fonctionnalités, ou étapes de l'expérience à tester
Les tâches à accomplir
Les participants
Les métriques d'utilisabilité
Les difficultés identifiées
Le nombre de tâches à demander dépendra évidemment de vos objectifs de recherche, de la complexité du test, du temps disponible et de la motivation des participants. Nous recommandons généralement de se limiter à 5-7 tâches.
6. Tester son test
Après avoir rédigé les tâches à réaliser, essayez de faire un "dry run" avec vos collègues. Cela vous permettra de vous entraîner à la réalisation du test, de peaufiner les tâches et éventuellement, de déterminer s'il y en a trop.
Métriques d'utilisabilité
Un test peut adopter une approche plus qualitative (via des enregistrement de commentaires des testeurs) ou quantitative (via des mesures de métriques), en fonction des besoins spécifiques du projet.
Voici quelques exemples de métriques :
Efficacité
Taux de réussite :Il s'agit d'une métrique simple indiquant si l'utilisateur a réussi la tâche (0 = échec, 1 = succès). Cette mesure peut être plus complexe en fonction des résultats possibles.
Nombre total d'erreurs : il représente le nombre d'erreurs commises par l'utilisateur lors de la réalisation de la tâche.
Niveau de confiance : cette question à échelle (de 1 à 7) interroge l'utilisateur sur son niveau de confiance quant à sa capacité à accomplir la tâche.
Efficience
Single Ease Question (SEQ) : une question à échelle (de 1 à 5-7) pour évaluer la simplicité perçue par l'utilisateur après chaque tâche.
Time on Task : elle indique le temps nécessaire à l'utilisateur pour accomplir ou échouer une tâche.
Subjective Mental Effort Question (SMEQ) : elle permet de noter la complexité intellectuelle d'une tâche.
Satisfaction
System Usability Scale (SUS) : elle sert de niveau de référence (sur 100) pour évaluer l'utilisabilité perçue d'une expérience utilisateur. (Par exemple, selon le modèle français du F-SUS, impots.gouv serait acceptable avec 60/100, Youtube excellent avec 86/100 et Google Search meilleure qu'on puisse imaginer avec 93/100).
Net Promoter Score (NPS) : il mesure la propension des utilisateurs à recommander un produit, un service ou une expérience à d'autres personnes.
Autres métriques
Single Usability Metric (SUM) : c'est une mesure globale prenant en compte le taux de réussite, les erreurs, la satisfaction et l'efficience.
Standardized User Experience Percentile Rank Questionnaire (SUPR-Q) : il comprend 8 questions évaluant divers aspects tels que l'utilisabilité, la confiance, l'apparence et la fidélité de l'utilisateur.
Ces métriques sont évidemment pertinentes pour les tests quantitatifs, mais elles ne permettent pas de comprendre les raisons des difficultés rencontrées. Pour cela, il est important de chercher des feedbacks plus qualitatifs, comme les réactions en temps réel lors de l'exécution des tâches.
Cependant, demander des retours qualitatifs tout en mesurant des métriques peut potentiellement affecter ces dernières. Par exemple, faire des commentaires peut augmenter le temps nécessaire pour accomplir une tâche, nécessitant alors une réévaluation des métriques a posteriori. Si vous avez besoin de feedbacks qualitatifs, il est donc conseillé de ne pas trop se focaliser sur les métriques, ou bien de les inclure dans des questions de follow-up.
Analyse
1. Données qualitatives
Après avoir terminé votre collecte, vous pourrez analyser les tendances et identifier les axes d'amélioration.
Nous vous conseillons d'utiliser des clusters pour partager ce que vous avez appris et regrouper les données similaires.
Vous pouvez par exemple utiliser les paramètres suivants :
Objectifs : ce que la personne essaie d'accomplir et d'obtenir en résultat
Commander trois pizzas dans une pizzeria bien notée à Paris, pour un diner convivial entre amis
Trouver la meilleure qualité-prix, en comparant différents restaurants sur le site
Besoins : ce dont la personne a besoin pour remplir son objectif
Des pizzas au feu de bois, belles et piquantes
Un restaurant avec une note supérieur à 4 sur 5
Un budget total de moins 50€
Tâches : ce que que la personne doit faire pour progresser vers son objectif
Cherchez des pizzas via la barre de recherche
Filtrer les notes par ordre décroissant
Lire le menu pour mieux connaitre l'origine des ingrédients
Payer par carte ticket-restaurant
Difficultés : un point bloquant ou une difficulté lors de l'avancée vers l'objectif
Ignorer comment la pizza est cuite
Ignorer la taille exacte de la pizza
Ignorer les conditions de transport de la pizza
Dès qu'un participant finit un test, nous recommandons de faire un rapide débriefing, en solo ou en équipe, afin de remplir progressivement les clusters et gagner du temps. À la fin de tous les tests, vous pourrez alors vous concentrer directement sur l'identification des tendances.
Généralement, les problèmes identifiés portent sur une incompréhension (les utilisateurs ne comprennent quelque chose ou comment faire), une impossibilité à trouver les mots qu'ils recherchaient (le produit n'a pas bien anticipé les attentes, ou bien les termes employés ne sont pas les bons), ou bien une surchage de contenus (ils ne voient pas ce dont ils ont besoin, même si cela est présent sur la page).
2. Données quantitatives
Vous pouvez rédiger un rapport de recherche, avec une slide dédiée à chaque type de tâche effectuée lors du test. Pour chaque tâche, vous pourrez inclure :
Le résultat global d'utilisabilité, de façon très simple à comprendre
Le nombre de participants ayant réussi ou échoué dans la tâche
Une liste des problèmes rencontrés
Le temps moyen passé sur la tâche
Les recommandations pour améliorer l'expérience
Vous avez également la possibilité d'opter pour un tableau avec des variations de couleurs selon les niveaux de métriques, offrant une présentation très visuelle des résultats du test.
Vous pourrez le structurer de la façon suivante :
Une ligne pour chaque participant
Une colonne pour chaque tâche
3 niveaux de couleurs : si un participant a réussi la tâche (vert), si un participant a eu des problèmes (orange), et si un participant a raté la tâche (rouge)
Une métrique de votre choix (Time-on-Task...) pour chaque tâche
Activation
Après l'analyse, il est essentiel de partager les résultats et de continuer à aider les équipes pour que le test débouche effectivement sur des résultats.
Dans un premier temps, collaborez avec les équipes sur la liste des problèmes à résoudre, identifiez et priorisez les 10 plus importants.
Puis, dans un second temps, prenez ensemble la décision (ou non) de les résoudre : isolez les quick-fixs, essayez de privilégier les suppressions ou les simplifications (vs. ajouter de nouvelles choses), prenez les demandes de nouvelles fonctionnalités avec des précaution, et ignorez les problèmes que les testeurs ont réussi à résoudre par eux-mêmes.