Revue internationale sur le numérique en éducation et communication
revue-mediations.teluq.ca N
o
5, 2021
44
revue-mediations.teluq.ca | N
o
5, 2021
1
Conceptiond’uneéchellefrançaise
d’évaluationdel’utilisabilitédesnouvelles
technologieséducativesparl’enfant
DesignofaFrenchusabilitymeasurementscalebychildren
Diseñodeunaescalaparaevaluarlausabilidaddelasnuevas
tecnologíaseducativasdestinadasaalumnosdeprimaria
Charlotte Baraudon, doctorante
Université de Lorraine, France
charlotte.baraudon@reseau-canope.fr
Jean-Baptiste Lanfranchi, maître de conférences
Université de Paris and Univ Gustave Eiffel, France
jean-baptiste.lanfranchi@parisdescartes.fr
J. M. Christian Bastien, professeur des universités
Université de Lorraine, France
christian.bastien@univ-lorraine.fr
Stéphanie Fleck, maître de conférences
Université de Lorraine, France
stephanie.fleck@univ-lorraine.fr
RÉSUMÉ
Le numérique ne cesse de se développer, notamment à l’école les politiques éducatives
en ont fait un des leviers de recherche prioritaires. Une utilisation efficace des technologies
numériques éducatives est essentielle pour que les élèves puissent atteindre des objectifs
d’apprentissage. Ainsi, il est important de pouvoir recueillir les perceptions des principaux
utilisateurs que sont les enseignants et les élèves sur l’utilisabilité de ces nouvelles
technologies en classe. Or, à notre connaissance, il n'existe pas encore de questionnaire
d'évaluation de l'utilisabilité des interfaces numériques en français spécifiquement adapté
aux jeunes élèves. K-Uses est une échelle de mesure d'évaluation de la perception de
l'utilisabilité par les jeunes utilisateurs. Cette échelle de mesure repose sur le modèle
présenté dans la norme ISO 9241-11 à laquelle nous avons ajouté le critère de « learnability »
de Nielsen. Cet article présente la construction et les premiers éléments de validation du
K-Uses avec des enfants âgés de 9 à 11 ans. La méthode utilisée a consisté en un examen
revue-mediations.teluq.ca N
o
5, 2021
45
revue-mediations.teluq.ca | N
o
5, 2021
2
de questionnaires d'utilisabilité existants, des prétests auprès d’enseignants et d’élèves
auxquels ont participé trois évaluateurs et une analyse exploratoire des données recueillies
auprès de 127 élèves. Les résultats sont prometteurs et montrent des niveaux satisfaisants
de validité et de fiabilité.
Mots-clés :
évaluation, échelle de Likert, utilisabilité, expérience utilisateur, enfants, analyse
factorielle exploratoire, technologies éducatives
ABSTRACT
Digital technology is developing, particularly in schools, where educational policies have
made it one of the priority levers. The effective use of digital educational technologies is
essential for students to achieve their learning goals. Therefore, it is essential to gather the
perceptions of the main users, i.e., teachers and students, on the ease of using these new
technologies in the classroom. To our knowledge, so far, no usability evaluation questionnaire
for French-language digital interfaces was adapted explicitly for young students. K-Uses is a
measurement scale to evaluate the perception of usability of young users. This measurement
scale is based on the model presented in the ISO 9241-11 standard, to which we have added
the Nielsen "learnability" criterion. This article presents the construction and the first elements
of the K-Uses with children aged 9 to 11. The method used consisted of reviewing existing
usability questionnaires, pre-tests with teachers and students involving three evaluators, and
an exploratory analysis of data collected from 127 students. The results are promising and
show satisfactory levels of validity and reliability.
Keywords:
evaluation method, Likert scale, usability, user experience, children, exploratory
factor analysis, instructional technologies
RESUMEN
La tecnología digital continúa desarrollándose, en particular en las escuelas, donde las
políticas educativas la han convertido en uno de sus aspectos prioritarios. El uso eficaz de
las tecnologías digitales educativas es esencial para que los alumnos alcancen sus objetivos
de aprendizaje. Así pues, es importante poder recoger las opiniones de los profesores y
estudiantes, sobre la usabilidad de estas nuevas tecnologías en el aula. Sin embargo, no
existe todavía un cuestionario específicamente adaptado a los alumnos para evaluar la
usabilidad de las interfaces digitales en lengua francesa. K-Uses es una escala de evaluación
de la percepción de la usabilidad de estas nuevas tecnologías por parte de usuarios jóvenes.
El diseño de esta escala se basa en el modelo presentado en la norma ISO 9241-11, al que
hemos añadido el criterio de "learnability" de Nielsen. Este artículo presenta la construcción
y los primeros elementos de validación de K-Uses con alumnos de 9 a 11 años. El método
utilizado consistió en un examen de los cuestionarios de la usabilidad existentes, en pruebas
previas en las que participaron tres evaluadores y en un análisis exploratorio de los datos
recogidos de 127 estudiantes. Los resultados son prometedores y muestran niveles
satisfactorios de validez y fiabilidad.
revue-mediations.teluq.ca | N
o
5, 2021
1
Conceptiond’uneéchellefrançaise
d’évaluationdel’utilisabilitédesnouvelles
technologieséducativesparl’enfant
DesignofaFrenchusabilitymeasurementscalebychildren
Diseñodeunaescalaparaevaluarlausabilidaddelasnuevas
tecnologíaseducativasdestinadasaalumnosdeprimaria
Charlotte Baraudon, doctorante
Université de Lorraine, France
charlotte.baraudon@reseau-canope.fr
Jean-Baptiste Lanfranchi, maître de conférences
Université de Paris and Univ Gustave Eiffel, France
jean-baptiste.lanfranchi@parisdescartes.fr
J. M. Christian Bastien, professeur des universités
Université de Lorraine, France
christian.bastien@univ-lorraine.fr
Stéphanie Fleck, maître de conférences
Université de Lorraine, France
stephanie.fleck@univ-lorraine.fr
RÉSUMÉ
Le numérique ne cesse de se développer, notamment à l’école les politiques éducatives
en ont fait un des leviers de recherche prioritaires. Une utilisation efficace des technologies
numériques éducatives est essentielle pour que les élèves puissent atteindre des objectifs
d’apprentissage. Ainsi, il est important de pouvoir recueillir les perceptions des principaux
utilisateurs que sont les enseignants et les élèves sur l’utilisabilité de ces nouvelles
technologies en classe. Or, à notre connaissance, il n'existe pas encore de questionnaire
d'évaluation de l'utilisabilité des interfaces numériques en français spécifiquement adapté
aux jeunes élèves. K-Uses est une échelle de mesure d'évaluation de la perception de
l'utilisabilité par les jeunes utilisateurs. Cette échelle de mesure repose sur le modèle
présenté dans la norme ISO 9241-11 à laquelle nous avons ajouté le critère de « learnability »
de Nielsen. Cet article présente la construction et les premiers éléments de validation du
K-Uses avec des enfants âgés de 9 à 11 ans. La méthode utilisée a consisté en un examen
revue-mediations.teluq.ca N
o
5, 2021
46
revue-mediations.teluq.ca | N
o
5, 2021
3
Palabras clave:
evaluación, escala de Likert, usabilidad, experiencia de usuario, alumnos de
primaria, análisis factorial exploratorio, tecnologías educativas
Introduction
Les nouvelles technologies apportent des changements fondamentaux dans la vie des enfants du
21
e
siècle. Ils sont les utilisateurs les plus fréquents des nouveaux services et environnements
numériques (Graafland, 2018; OCDE, 2015). Au-delà de la question de la qualité de la médiation des
savoirs, l'utilisation efficace des technologies numériques dans l'éducation est actuellement considérée
comme un facteur clé pour la réalisation des objectifs éducatifs de la stratégie Europe 2020 (European
Commission, 2019; European Commission/EACEA/Eurydice, 2013). La diversité des interfaces
numériques destinées au monde éducatif (par exemple, les écoles et les musées) augmente fortement
depuis une dizaine d’années avec un développement technologique rapide. Aujourd'hui, les enfants ont
accès à diverses technologies d'apprentissage offrant une variété croissante d'interactions homme-
machine (IHM) qui vont au-delà des interactions Windows, Icons, Menus and Pointing device (WIMP)
(par exemple, sur un ordinateur personnel) ou de la saisie tactile (par exemple, via une tablette). Il peut
aussi s'agir de robots éducatifs (par exemple, Curlybot (Frei, Su, Mikhak et Ishii, 2000), Topobo (Raffle,
Parkes et Ishii, 2004), T-ProRob (Sapounidis, Demetriadis, Papadopoulos et Stamovlasis, 2019)) ou
d'interfaces utilisateur tangibles (TUI) associées ou non à de la réalité mixte (RM) (par exemple,
BeatTable (Bumbacher, Deutsch, Otero et Blikstein, 2013), des environnements d’apprentissage
(Cuendet, Bonnard, Do-Lenh et Dillenbourg, 2013), TanPro-Kit (Wang, Qi, Zhang et Wang, 2013), Helios
(Fleck et Hachet, 2015), Teegi (Fleck, Baraudon, Frey, Lainé et Hachet, 2018), etc.).
Chaque système possède sa propre interface utilisateur. Et chaque interface varie en termes de quali
d'utilisation, ce qui peut influencer les utilisations et les méthodes de travail des enfants. Cela peut donc
potentiellement affecter le développement des enfants et la qualide leurs apprentissages (Fitton et Bell,
2014; Harmon, 2016; Mercier, Vourloumi et Higgins, 2017; Verillon et Rabardel, 1995). Par conséquent,
les questions relatives à l'influence de l’utilisabiliet, plus largement, des interactions entre l'enfant et
l'ordinateur (Child-Computer Interactions (CCI)) sont de plus en plus nombreuses.
Plusieurs travaux favorisent les approches de conception centrée sur l’utilisateur (CCU) afin de fournir
des IHM conformes aux besoins et aux capacités des futurs jeunes utilisateurs (Druin, 2002; Hourcade,
2008; Markopoulos, Read, MacFarlane et Hoysniemi, 2008). La CCU exige d'intégrer à toutes les étapes
du processus de conception d’outils pédagogiques les principaux destinataires, c'est-à-dire les enfants
et les adultes qui accompagnent les jeunes utilisateurs dans leur développement (par exemple, les
parents, les animateurs, les médiateurs, les enseignants), selon des approches que l’on peut qualifier de
participatives ou collaboratives selon leurs formes. Néanmoins, même si des outils de co-conception
d'interfaces numériques permettant la participation des enfants sont en cours de développement (ex.
(Blikstein et Krannich, 2013; Read, 2015; Veytizou, Bertolo, Baraudon, Olry et Fleck, 2018), les outils
permettant aux enfants de les évaluer facilement sont encore trop rares (Barendregt, Bekker et Baauw,
2008; Hall, Hume et Tazzyman, 2016; Read, 2008; Yusoff, Ruthven Ian et Monica, 2011; Zaman et
Abeele, 2010) par rapport à ceux destinés aux adultes. À notre connaissance, aucun n'a été validé en
français ou dans d'autres langues que l'anglais. Les évaluations empiriques de l'utilisabilité sont souvent
basées sur des questionnaires, car elles sont faciles à rer, fiables, statistiquement objectives et
économiques. L'un des questionnaires les plus utilisés est le System Usability Scale (SUS) (Brooke,
1996). Il est reconnu dans le monde des interactions homme-machine (IHM) comme étant fiable, rapide
et facile à gérer. Cependant, tous ces questionnaires ont été validés pour des adultes et non pour de
revue-mediations.teluq.ca N
o
5, 2021
47
revue-mediations.teluq.ca | N
o
5, 2021
4
jeunes utilisateurs. Par conséquent, il est nécessaire de compléter les approches existantes et d'accroître
les possibilités pour les enfants non anglophones d'évaluer l’utilisabilité des systèmes interactifs.
Cet article présente la création et les premières étapes de validation d'une courte échelle d'utilisabilité
spécialement conçue pour être remplie par des enfants âgés de 9 à 11 ans, appelée K-Uses (pour « kids
et utilisabilité des systèmes et environnements numériques »).
Évaluation de l’utilisabilité
L'utilisabilité d'une interface ou d'un système est un concept qui a émerdans les années 80 dans le
domaine de l'IHM (Bennett, Case, Sandelin et Smith, 1984; Eason, 1984). La norme ISO 9241-11 définit
ce concept comme « le degré selon lequel un produit peut être utilisé, par des utilisateurs identifiés, pour
atteindre des buts définis avec efficacité, efficience et satisfaction dans un contexte d’utilisation spécifié »
(ISO 9241-11, 1998). Nielsen a ajouté à cette définition le critère d'apprentissage (learnability) (Nielsen,
1994). Ainsi, évaluer la facilité d'utilisation d'une interface ou d'un système signifie évaluer quatre
propriétés : l’efficacité, l’efficience, la satisfaction et la facilité d'apprentissage. Ici, « la précision ou le
degré d'achèvement par lequel l'utilisateur atteint des objectifs spécifiés » définit l'efficacité. L'efficience
fait référence à « la relation entre les ressources dépensées, la précision et le degré d'achèvement selon
lequel l'utilisateur atteint les objectifs spécifiés ». La satisfaction représente « l'absence d'inconfort et le
caractère positif de l'utilisation du produit ». Enfin, le système doit être facile à apprendre afin que
l'utilisateur puisse rapidement commencer à travailler avec le système (Nielsen, 1994). En résumé, le
concept d’utilisabilité englobe la performance de alisation de la tâche, la satisfaction que procure
l’utilisation du produit et la facilité avec laquelle on apprend à s’en servir.
Par ailleurs, on distingue généralement deux types de méthodes complémentaires d’évaluation de
l’utilisabilité : les méthodes analytiques et les méthodes empiriques (Dumas et Fox, 2009; Kieras, 2009;
Ozok, 2009). Les méthodes analytiques évaluent la conception du système. Les interfaces sont ici
étudiées selon un ensemble de référents afin de contrôler qu'elles possèdent bien certaines qualités et
de détecter les problèmes qu'elles peuvent poser (par exemple, via l'inspection ergonomique, l'examen
par des experts). D'autre part, les évaluations empiriques, qui nécessitent l'existence du système réel et
la présence d'utilisateurs, consistent à collecter des données sur les comportements et les perceptions
des utilisateurs finaux pendant ou après l'utilisation d'un système. Cette évaluation empirique des
perceptions de l'utilisateur final est le plus souvent réalisée dans le cadre d'un test d'utilisabilité. Ce test
demande à l'utilisateur d'utiliser le système pendant une période définie et peut inclure des techniques
de réflexion à voix haute (Nielsen, Clemmensen et Yssing, 2002). Cependant, les perceptions de
l'utilisateur sont généralement recueillies par le biais de questionnaires remplis après le test d'utilisation
pour compléter les informations et avoir des données quantitatives.
L’enfant au centre du processus de développement d’un produit
Depuis le développement du langage de programmation Logo (Papert, 1977), qui a impliqué les enfants
dans le processus de conception, plusieurs études favorisent l'intégration des enfants dans le processus
de développement de la technologie (Lanna et Oro, 2019; Nonnis et Bryan-Kinns, 2019; Yarosh et
Schueller, 2017). Les enfants peuvent jouer quatre rôles dans le processus de développement
technologique : utilisateur, testeur, informateur et/ou partenaire de conception (Druin, 2002). Dans le rôle
de testeur, les enfants peuvent faire des commentaires sur l'attrait ou l'utilité d'un produit et donner une
évaluation de leur point de vue. Bien que différentes méthodes puissent être utilisées pour obtenir des
informations des enfants (par exemple, des entretiens, des séances de brainstorming, des réflexions à
voix haute), des questionnaires sont souvent utilisés, probablement parce que de nombreuses personnes
revue-mediations.teluq.ca N
o
5, 2021
48
revue-mediations.teluq.ca | N
o
5, 2021
5
peuvent les remplir simultanément. Plusieurs chercheurs ont proposé des approches et des
recommandations pour rendre le processus d'évaluation valide et satisfaisant pour les évaluateurs (Bell,
2007; Laerhoven, Zaag-Loonen et Derkx, 2004; Mellor et Moore, 2013; Read, 2015). Il faut notamment
veiller à ce que les enfants puissent comprendre la question posée et que l'échelle permette d'obtenir
des réponses précises.
Cependant, la plupart des questionnaires d’utilisabilité sont destinés aux adultes. Leur principal problème
provient de la complexité de la syntaxe et du vocabulaire utilisés dans la formulation des phrases (Finstad,
2006; Fleck et al., 2018). Il est donc difficile pour les enfants d'exprimer leurs perceptions par des
questionnaires qui ne leur sont pas destinés. C'est pourquoi plusieurs méthodes d'évaluation de
l'expérience utilisateur ont été mises au point pour les enfants, notamment les Problem Identification
Picture Cards pour les 5-6 ans (Barendregt et al., 2008), Funtoolkit composé d'un smileyomètre,
Funsorter et Again Again Table pour les 5-10 ans (Read et al., 2002), Laddering est adapté aux 5-7 ans
(Zaman et Abeele, 2010) et This or That pour les enfants d'âge préscolaire (Zaman, 2009). D'autres
échelles ont été construites pour mesurer le niveau de compétence perçu par le répondant : Thumbs-Up
Scale (TUS), ou la fréquence de toute tâche/événement : Frequency of Use Scale (FUS) (Kano, Horton
et Read, 2010). Cependant, la plupart des méthodes d'évaluation citées ci-dessus ciblent les enfants de
7 ans et moins. Beaucoup se sont concentrées davantage sur le format de l'échelle plutôt que sur la
signification et la compréhensibilité des éléments. De plus, elles sont spécifiquement conçues pour les
enfants qui ne lisent pas encore facilement.
Rendre les questions d’utilisabilité accessibles et significatives pour les enfants reste un défi
(Markopoulos et al., 2008). En effet, les enquêtes conçues pour permettre aux enfants d'évaluer la facilité
d’utilisation d'un environnement numérique selon les mêmes critères que ceux utilisés pour les adultes
restent rares. De plus, les versions francophones faisant défaut, la présente étude se concentre donc sur
ces questions en suspens.
Moyens et méthodes
Nous avons créé une courte échelle d'utilisation spécialement conçue pour être remplie par des enfants
francophones à partir de neuf ans. Elle s'appelle K-Uses pour « Kids et Utilisabilité des systèmes et
environnements numériques ». Ce questionnaire vise à :
estimer rapidement l'utilisabilité d'un système telle qu'elle est perçue par les enfants;
permettre des comparaisons entre chaque étape de la conception;
être utilisé quelle que soit la nature du système (par exemple, ordinateur, tablette, robots,
environnements hybrides tels que les interfaces tangibles et augmentées);
être mis en œuvre dans des conditions contrôlées ainsi que dans des situations réelles
d'utilisation;
permettre, à terme, de comparer les réponses données par les enfants et les adultes qui les
accompagnent (par exemple, les parents, les médiateurs et les enseignants).
Il n'est pas destiné à être utilisé pour identifier des problèmes spécifiques dans l'utilisation des systèmes,
mais plutôt pour évaluer l'utilisabilité globale du système, en complément de tests utilisateurs.
Inspirée des méthodologies déjà utilisées pour les questionnaires d'utilisabilité existants (par exemple,
DEEP (Yang, Linder et Bolchini, 2012) et ICF-US (Martins, Rosa, Queirós, Silva et Rocha, 2015)), la
procédure établie pour le développement de K-Uses a suivi trois étapes successives (voir figure 1).
revue-mediations.teluq.ca N
o
5, 2021
49
revue-mediations.teluq.ca | N
o
5, 2021
6
Figure 1
Synthèse des trois étapes successives pour développer le K-Uses
Création du questionnaire
Nous avons d'abord conçu une première version du K-Uses en tenant compte, d’une part, des quatre
dimensions qui définissent l'utilisabilité et, d’autre part, de recommandations en psychométrie pour
s’assurer de la fiabilité des questions pour des enfants.
FINITION DU CONTENU DE L’ÉCHELLE DE MESURE
Après avoir fait l'inventaire des questionnaires d'utilisabilité existants et avoir retenu les 20 premiers (voir
annexe A), trois experts en IHM dans le domaine de l'ergonomie, de l'évaluation de l'utilisabili et des
domaines de la CCI ont :
1) identifié les dimensions pertinentes de l’utilisabilité par rapport à tous les types d'interface;
2) sélectionné les items en fonction de leur pertinence perçue pour les trois facteurs d'utilisabilité
associés à la norme ISO 9241-11 (1998) et le facteur d'apprentissage;
3) conservé en tant que tels ou reformulé les facteurs sélectionnés pour les rendre
compréhensibles par les enfants.
CONCEPTION ADAPTÉE AUX SPÉCIFICITÉS DE LA RÉPONSE DE L'ENFANT
En parallèle, nous nous sommes intéressés à la structure de l'outil d'évaluation et en particulier à son
format de réponse. Il est généralement reconnu que la recherche par enquêtes est possible avec des
enfants à partir de sept ans, mais avec des questionnaires soigneusement adaptés (Borgers, 2000; Scott,
1997). Nous avons choisi de ne proposer que des énoncés positifs pour le questionnaire, conformément
aux recommandations de Bell (2007) qui indique que les questions négatives doivent être évitées dans
les questionnaires destinés aux enfants. En outre, le questionnaire comprend un texte d'introduction clair
et l'échelle est entièrement étiquetée verbalement pour aider les enfants dans leur compréhension
(Borgers, 2000; Hox, Borgers et Sikkel, 2003). Plusieurs études ont porté sur la recherche d'un format
d'échelle adaptée aux enfants pour mesurer leurs jugements de la meilleure façon possible (par exemple
(Hall et al., 2016; Yusoff et al., 2011)). L'utilisation d'échelles de type Likert, qui nécessitent une réponse
progressive à une série d'instructions, est une manière courante d'évaluer les attitudes, les valeurs, les
Création du questionnaire
Recensement des questionnaires
d’utilisabilité existants
20 questionnaires, 416 items
Filtrage des dimensions pertinentes
de l’utilisabilité
Efficacité, Efficience, Satisfaction et
Facilité d’apprentissage
duction des items redondants,
lection et reformulation des items
correspondants aux dimensions
19 items
Prétests
Prétest 1 : 4 enseignantes
Recueil des termes appropriés
pour les enfants de 9-11 ans
Prétest 2 : 18 élèves de
10-11 ans
Valider la compréhensibilité
des items et de l’échelle de
mesure
Tests et analyses
Test d’utilisabilité : 127 élèves
âgés de 9-11 ans
viser et valider les
dimensions de lutilisabilité
Questionnaire final :
K-Uses: Kids and Usability of
School Systems and
Environments
13 items
revue-mediations.teluq.ca N
o
5, 2021
50
revue-mediations.teluq.ca | N
o
5, 2021
7
états intérieurs et les jugements (Mellor et Moore, 2013). En outre, les enfants à partir de sept ans les
préfèrent à d'autres typologies (par exemple, Visual Analytic Scale (Laerhoven et al., 2004)). Par ailleurs,
d'autres travaux mettent en évidence le fait que les échelles en cinq points sont à privilégier pour ce type
de public, car plus d'options n'ont qu'une faible utilité supplémentaire (Lissitz et Green, 1975; Mellor et
Moore, 2013) et peuvent diminuer la fiabilité (Borgers, Sikkel et Hox, 2004).
Prétests
L'étape suivante correspond aux prétests. Ils ont été conçus pour vérifier la bonne compréhension des
items et le format de réponse. Deux prétests ont été réalisés : un avec 4 enseignants (2 enseignants du
primaire et 2 du secondaire) et un second avec 18 élèves de 10-11 ans. Ces prétests visaient à valider
la compréhensibilité des items et de l'échelle de mesure.
PRÉTEST 1
Lors du premier prétest, l'expérimentateur a distribué les questionnaires aux quatre enseignants et a lu
les instructions générales à chaque enseignant individuellement. Les enseignants ont ensuite été invités
à lire chaque énoncé et à répondre à l'item associé : « Un élève âgé de neuf ans ou plus comprend tous
les mots de cette phrase » sur une échelle de cinq points allant de « pas du tout d'accord » à « tout à fait
d'accord ». Ils devaient proposer une solution pour les termes perçus comme problématiques. En utilisant
le même format de ponse, ils devaient répondre à la question suivante : « Un élève de neuf ans ou plus
comprend le système de réponse » et donner leur avis.
PRÉTEST 2
Le deuxième prétest a eu lieu dans le living lab de l’Atelier Canopé 57 de Montigny-Les-Metz, nommé le
« Li’L@b », lors d'un test utilisateur sur un prototype tangible, nommé PrisMe (Olry, Veytizou, Vivian,
Fleck et Bertolo, 2020), qui vise à soutenir le travail et l'apprentissage collaboratifs dans un contexte
éducatif. Cette session a impliqué 18 élèves (11 filles et 7 garçons) âgés de 10 à 11 ans. Ils devaient
utiliser le prototype au cours d'un exercice d'apprentissage de codage mathématique pour appeler le
professeur ou demander de l'aide, signaler la fin de leur travail et voter entre eux pour les décisions
importantes.
Le questionnaire a été remis aux 18 élèves une fois qu'ils avaient travailavec le système interactif.
L'expérimentateur a d'abord lu les instructions générales à haute voix, puis il a lu les différentes
affirmations du questionnaire. Les élèves devaient d'abord évaluer leur degré d'accord sur la perception
de l'utilisabilité du prototype sur une échelle de Likert en cinq points allant de « pas du tout d'accord » à
« tout à fait d'accord ». Comme dans les travaux précédents (Lallemand, Koenig, Gronier et Martin, 2015;
Sharfina et Santoso, 2016; Vallerand, 1989), les élèves ont été invités à évaluer leur compréhension des
énoncés après chacune de leurs réponses. Ils devaient répondre à « J'ai compris tous les mots de la
phrase » en utilisant le même format d'échelle de Likert que les items K-Uses. Enfin, ils devaient entourer
les mots qu'ils n'avaient pas compris et il leur était demandé de reformuler les items pour s’assurer de
leur compréhension.
revue-mediations.teluq.ca N
o
5, 2021
51
revue-mediations.teluq.ca | N
o
5, 2021
8
Premiers éléments de validation
TEST
Le test a été effectué en classe sur six demi-journées. Il a concerné 6 classes, ce qui représente
127 élèves : soit 74 élèves de CM2 et 53 élèves de CM1, 65 filles et 62 garçons. Les élèves ont é
regroupés par paires ou trinômes. Chaque groupe d'élèves a réalisé trois activités collaboratives
d'apprentissage de manière contrebalancée en utilisant les systèmes décrits ci-dessous. Quatre
expérimentateurs, également spécialistes en pédagogie, ont coordonné ces activités.
Ces activités comprenaient différentes technologies éducatives nouvellement utilisées en classe (voir
figure 2) :
1) AIBLE-HELIOS (Fleck et Hachet, 2015) est un environnement d'apprentissage basé sur la
recherche qui se concentre sur les phénomènes astronomiques de base. Il est conçu pour les
enfants de 8 à 11 ans à l'école primaire. Grâce à la réalité augmentée (RA), les utilisateurs
manipulent la Lune, le Soleil et la Terre virtuels en déplaçant physiquement des artefacts portant
des marqueurs de RA, suivant une approche tangible. Lors des sessions de test, les élèves
devaient essayer de répondre à deux questions : « Qu'est-ce que la nuit? » et « Pourquoi la
durée du jour et de la nuit n'est-elle pas toujours la même sur Terre? » en utilisant cet
environnement tangible et augmenté.
2) BLUE-BOT (Greff, 2016) est un robot éducatif qui se place sur le sol. Il avance et recule en
ligne droite par pas de 15 cm et peut pivoter à 90°. Il peut être programmé et piloté à l'aide de
sept commandes. Au début de l'activité, les élèves pouvaient manipuler le robot librement pour
découvrir son fonctionnement avec l'aide de l'expérimentateur. Ensuite, ils devaient faire bouger
le robot sur le tapis comme suit : a) « Le robot doit passer sur cinq cases différentes et dans
deux directions. », b) «Placez le robot sur la case départ et codez le déplacement pour se rendre
sur la case "île". », c) « Allez de la case départ jusqu’à la case "trésor" en passant par une case
"île" et en y faisant une pause. » Enfin, le dernier défi consistait à faire faire un carré de quatre
cases de côté au robot et, si le temps le permettait, de le refaire en réduisant le code au
maximum.
3) MATHADOR (Trouillot, 2016) est un jeu sérieux en ligne et une application pour écran tactile
mobile. Il est basé sur des exercices de calcul mental et de logique mathématique. Il existe
plusieurs versions du jeu. Dans notre étude, l'activité a été réalisée sur une tablette. Les élèves
ont utilisé l'application Solo, dont la logique est de suivre un chemin de progression pouvant
atteindre 20 niveaux. Pour chaque exercice, l'objectif est d'atteindre le nombre cible en utilisant
les nombres proposés. Plus le nombre de numéros et d'opérateurs utilisés est élevé, plus le
nombre de points gagnés est important. La division et la soustraction donnent le plus grand
nombre de points. Il y avait également des énigmes mathématiques à résoudre.
Ainsi, les élèves ont utilisé ces trois interfaces de manière contrebalancée comprenant trois manières
d'interagir : i) AIBLE-HELIOS pour apprendre l'astronomie : interaction tangible avec de la réalité
mixte; ii) BLUE-BOT pour apprendre les bases de la programmation : interaction physique avec le
robot; iii) MATHADOR pour travailler le calcul mental : interaction tactile sur tablette. Puis, ils ont
fourni leur perception de l'utilisabilité des trois technologies en répondant individuellement à l’échelle
du K-Uses.
revue-mediations.teluq.ca N
o
5, 2021
52
revue-mediations.teluq.ca | N
o
5, 2021
9
Figure 2
Présentation des trois activités implémentées pour tester le K-Uses en contexte de classe
Note.
Les élèves ont utilisé trois interfaces comprenant trois manières d'interagir : i) AIBLE-HELIOS
pour apprendre l'astronomie : interaction tangible avec de la réalité mixte; ii) BLUE-BOT pour
apprendre les bases de la programmation : interaction physique avec le robot; iii) MATHADOR pour
travailler le calcul mental : interaction tactile sur tablette.
Analyse des données
Toutes les analyses statistiques ont été réalisées à l'aide du logiciel SPSS version 23 et le logiciel de test
du nombre d’axes à retenir dans une analyse en composantes principales (Monte Carlo PCA, Watkins,
2000). Quelques questionnaires comportaient de rares réponses manquantes (5 données manquantes
sur un total de 4 personnes parmi 127 répondants). Nous les avons remplacées par la moyenne des
réponses pour l’item en question. La structure factorielle du K-Uses a été évaluée par une analyse en
composantes principales (rotation Varimax, analyse parallèle Horn). La cohérence interne du
questionnaire K-Uses a été évaluée en calculant l'alpha de Cronbach (Cronbach, 1951) et l'indice
composite rho (Dillon et Goldstein, 1984) pour chaque dimension.
Résultats
Les prétests
En ce qui concerne le système de réponse aux questions, les enseignants ont pensé que leurs élèves
seraient capables de comprendre le système de réponse aux échelles de Likert. Certains ont proposé
néanmoins l'utilisation de smileys comme substitution. En outre, les enseignants ont suggéré différentes
solutions pour les termes qu'ils jugeaient susceptibles d'être perçus comme problématiques par les
Activité avec BLUE-BOT (robot)
Animation avec AIBLE-HELIOS (alité mixte)
Activité avec MATHADOR sur tablette (écran tactile)
revue-mediations.teluq.ca N
o
5, 2021
53
revue-mediations.teluq.ca | N
o
5, 2021
10
élèves (par exemple, supprimer « utilisateurs réguliers et occasionnels » ou « besoin d'un manuel »,
remplacer « toute personne qui a besoin d'utiliser ce système », remplacer « atteindre mes objectifs »
par « réussir dans mon travail »). Après avoir modifié les phrases sur la base des propositions des
enseignants, les élèves participant au prétest ont compris tous les termes des différentes affirmations
(M > 4,3). Le système de réponse aux questions n'a présenté aucune difficulté pour remplir les
questionnaires. Cependant, nous avons choisi d'inverser certains items pour contrebalancer la tendance
à l'acquiescement. Nous avons choisi de ne pas utiliser les smileys proposés par les enseignants en
raison des futures utilisations de K-Uses. En effet, nous avons l'intention de le tester sur des populations
d'âges différents, y compris des adultes, dans le cadre de travaux ultérieurs. Ces prétests permettent de
valider en situation réelle la compréhension des items par le public cible et la compréhensibilité de
l'échelle de mesure. À la suite des modifications apportées aux items via ces prétests, on obtient la
version préliminaire à tester constituée de 19 items (voir tableau 1). Nous précisons dans le tableau 1 à
quel questionnaire existant et leur dimension font référence les items (voir annexe A pour plus de
précisions sur ces questionnaires).
Tableau 1
Liste des items obtenus par dimension théorique et dimension factorielle
Dimension
théorique
Items Q Dimensions Q
Efficacité
Je peux réaliser ce que je dois faire
efficacement avec ces systèmes. (S)
CUSQ Utilité
Grâce à ces systèmes, je vais pouvoir
réussir mon travail. (S)
CUSQ Utilité
La manière dont les systèmes
fonctionnent rend difficile mon travail. (I)
USE Utilité
Ces systèmes sont difficiles à utiliser. (I)
SUS et USE
Facilité d'utilisation
J'ai trouvé que les systèmes étaient
adaptés à ce que je devais faire. (S)
USE Utilité
Facilité
d’apprentissage
Je pense que j'aurai besoin d'un mode
d'emploi ou d'aide pour pouvoir utiliser
ces systèmes. (I)
USE
Facilité
d’apprentissage
J'ai eu besoin d'apprendre beaucoup de
choses avant de pouvoir me servir de ces
systèmes. (I)
SUS
Facilité
d’apprentissage
Je me souviens facilement de la manière
de se servir des systèmes. (S)
USE
Facilité
d'apprentissage
Il a été facile d'apprendre à me servir de
ces systèmes. (S)
CUSQ Utilité du système
Satisfaction
Je recommanderai ces systèmes à un ami.
(S)
USE Satisfaction
revue-mediations.teluq.ca N
o
5, 2021
54
revue-mediations.teluq.ca | N
o
5, 2021
11
Dimension
théorique
Items Q Dimensions Q
J'ai détesté utiliser ces systèmes. (I)
WAMMI et
CUSQ
Attractivité et qualité
de l’interface
J'ai trouvé ces systèmes beaux. (S)
CUSQ
Qualité de l'interface
Toute personne ayant besoin d'utiliser ces
systèmes aimerait s'en servir. (S)
USE Facilité d'utilisation
L'utilisation de ces systèmes m'a
énervé(e). (I)
EMO Affect négatif
Efficience
Je pense avoir été capable de réussir assez
rapidement ce que je devais faire avec ces
systèmes. (S)
CUSQ Utilité
Je suis certain(e) de pouvoir réussir ce que
je dois faire en utilisant ces systèmes. (S)
SUS Facilité d'utilisation
Il m'a fallu peu d'effort pour utiliser ces
systèmes. (S)
DEEP Effort cognitif perçu
L'utilisation de ces systèmes me fait
perdre du temps. (I)
meCUE et
USE
Émotion de
l’utilisateur et utilité
J'ai trouvé logique le fonctionnement des
systèmes. (S)
WAMMI Utilité
Résultats des tests
L'analyse factorielle est une méthode d'exploration et de représentation de données analytiques
permettant d'extraire un petit nombre de facteurs indépendants et interprétables d'un ensemble de
données observées à haute dimension et à structure complexe (HolgadoTello, ChacónMoscoso,
BarberoGarcía et VilaAbad, 2010). Ainsi, une approche exploratoire a été menée sur 19 variables (les
réponses à chaque item) avec un échantillon de 127 participants. Le tableau 2 présente les moyennes et
les écarts types recueillis pour chaque item du K-Uses. Pour calculer les moyennes, nous avons pris en
compte les scores aux items simples (S) et ceux inversés (I). Pour les items dont l'acceptation est
contraire à l'attitude générale que l'on veut mesurer au moyen de cette échelle (items inversés), les
valeurs sont ordonnées dans l'autre sens : 1 pour « Tout à fait d'accord » et 5 pour « Pas du tout
d’accord ». Une analyse factorielle en composantes principales (ACP) a été choisie pour identifier la
structure sous-jacente des données et réduire le nombre de variables en quelques facteurs. Une ACP
consiste à transformer des variables corrélées entre elles en nouvelles variables décorrélées les unes
des autres représentant des « composantes principales » ou des « facteurs ». La validité de construit
consistera à montrer que cette échelle est construite de manière cohérente avec la théorie qui la sous-
tend. Les items établis par Brooke (1996) ont été conçus à l’origine pour donner un score unique. Bangor,
Kortum et Miller (2008) ont montré que les dix énoncés couvrent un seul facteur. Ces résultats montrent
que le questionnaire SUS reflète globalement les estimations des participants sur l'utilisabiliglobale
d'une interface. Comme pour le SUS, nous avons voulu vérifier si le K-Uses est unidimensionnel.
revue-mediations.teluq.ca N
o
5, 2021
55
revue-mediations.teluq.ca | N
o
5, 2021
12
Tableau 2
Statistiques descriptives pour tous les items du K-Uses
Items
N
Min
Moy
ET
1. Je peux réaliser ce que je dois faire efficacement avec
ces systèmes. (S)
127
1
5
4.19
0.81
2. Je pense que j'aurai besoin d'un mode d'emploi ou
d'aide pour pouvoir utiliser ces systèmes. (I)
127
1
5
3.31
1.45
3. Je recommanderai ces systèmes à un ami. (S)
127
1
5
4.05
1.10
4. Je pense avoir été capable de réussir assez
rapidement ce que je devais faire avec ces systèmes.
(S)
127
1
5
3.92
1.02
5. La manière dont les systèmes fonctionnent rend
difficile mon travail. (I)
127
1
5
4.28
1.12
6. Je me souviens facilement de la manière de se servir
des systèmes. (S)
127
1
5
4.38
0.96
7. J'ai trouvé ces systèmes beaux. (S)
127
1
5
4.42
0.80
8. Je suis certain(e) de pouvoir réussir ce que je dois
faire en utilisant ces systèmes. (S)
127
1
5
4.06
0.94
9. Grâce à ces systèmes, je vais pouvoir réussir mon
travail. (S)
127
1
5
3.98
1.00
10. J'ai eu besoin d'apprendre beaucoup de choses avant
de pouvoir me servir de ces systèmes. (I)
127
1
5
3.11
1.49
11. Toute personne ayant besoin d'utiliser ces systèmes
aimerait s'en servir. (S)
127
1
5
4.01
1.04
12. Il m'a fallu peu d'effort pour utiliser ces systèmes. (S)
127
1
5
3.70
1.29
13. Ces systèmes sont difficiles à utiliser. (I)
127
1
5
4.28
1.05
14. J'ai détesté utiliser ces systèmes. (I)
127
1
5
4.84
0.62
15. L'utilisation de ces systèmes me fait perdre du temps.
(I)
127
2
5
4.65
0.78
16. J'ai trouvé que les systèmes étaient adaptés à ce que
je devais faire. (S)
127
2
5
4.35
0.81
17. Il a été facile d'apprendre à me servir de ces systèmes.
(S)
127
1
5
4.20
1.17
18. L'utilisation de ces systèmes m'a énervé(e). (I)
127
3
5
4.86
0.43
19. J'ai trouvé logique le fonctionnement des systèmes. (S)
127
1
5
4.42
0.84
Note. « N » : nombre total de participants, « Min » : minimum, « Max » : Maximum, « Moy » : moyenne,
« ET » : écart- type.
Le test de sphéricité de Bartlett significatif X
2
(378) = 2645,79, p = .000, et la mesure d'adéquation de
l'échantillon Kaiser-Meyer-Olkin (KMO) de .81 indiquent que la matrice de corrélation peut être soumise
à une analyse factorielle. Le test parallèle de Horn (Horn, 1965; Watkins, 2000) incite à retenir trois
composantes dont la valeur propre est supérieure à 1,5.
revue-mediations.teluq.ca N
o
5, 2021
56
revue-mediations.teluq.ca | N
o
5, 2021
13
Contrairement au SUS qui est unidimensionnel, nous avons un modèle tridimensionnel, mais en
conformité avec les modèles d'utilisabilité tels que décrits dans la norme ISO 9241-11 (1998). Cependant,
nous avions considéré quatre facteurs : l'efficacité, l’efficience, la satisfaction et la facilité d'apprentissage.
Nous nous attendons donc à ce que des items partent ou s’associent à un autre facteur que celui qui leur
était initialement affecté. Trois ACP avec rotation Varimax
1
en trois facteurs ont été réalisées
successivement pour obtenir une solution factorielle finale à 13 items satisfaisante : 6 items ont été
supprimés, car ayant une saturation basse ou saturant plusieurs axes (voir tableau 3).
Tableau 3
Indication des items supprimés de l'analyse pour une saturation < .40 ou pour leur saturation sur
plusieurs axes
Items
Causes des items
supprimés
3.
Je recommanderai ces systèmes à un ami.
Saturation < .40
7.
J'ai trouvé ces systèmes beaux.
Saturation < .40
12.
Il m'a fallu peu d'effort pour utiliser ces systèmes.
Saturation < .40
16.
J'ai trouvé que les systèmes étaient adaptés à ce que je devais faire.
Saturation sur plusieurs
axes
17.
Il a été facile d'apprendre à me servir de ces systèmes.
Saturation < .40
19.
J'ai trouvé logique le fonctionnement des systèmes.
Saturation sur plusieurs
axes
L’analyse finale est présentée dans le tableau 4. Seules les saturations > .40 sont indiquées dans le
tableau. On observe des lots d’items saturant nettement sur un seul des trois facteurs avec des
saturations comprises entre .51 et .81. Par exemple, pour le premier facteur, les items 8 « Je suis
certain(e) de pouvoir réussir ce que je dois faire en utilisant ces systèmes. » et 9 « Grâce à ces systèmes,
je vais pouvoir réussir mon travail. » saturent respectivement à .69 et .70. On constate que ces items font
référence à la performance des systèmes. Autre exemple, pour le deuxième facteur, les items 14 « J'ai
détesté utiliser ces systèmes. » et 18 « L'utilisation de ces systèmes m'a énervé. » révèlent des
saturations à .81 et .73. Ces items montrent ici l’insatisfaction liée à l’utilisation des systèmes. Enfin,
dernier exemple, les items 5 « La manière dont les systèmes fonctionnent rend difficile mon travail. » et
13 « Ces systèmes sont difficiles à utiliser. » saturent à .67 et .70 pour le troisième facteur. Ces derniers
renvoient à la difficulté d’apprentissage ou la difficulté de prise en main du système.
Tableau 4
Analyse factorielle en composantes principales avec rotation Varimax pour 13 variables
Items
Composantes
1
2
3
1.
Je peux réaliser ce que je dois faire efficacement avec ces systèmes.
.62
6.
Je me souviens facilement de la manière de se servir des systèmes.
.51
9.
Grâce à ces systèmes, je vais pouvoir réussir mon travail.
.70
1
Une rotation Varimax consiste à faire tourner les axes de manière à ce que les corrélations entre les variables et les axes soient le plus
tranchées possible en respectant deux principes : l’orthogonalité des axes et le pourcentage d’inertie sur chaque axe
revue-mediations.teluq.ca N
o
5, 2021
57
revue-mediations.teluq.ca | N
o
5, 2021
14
Items
Composantes
1
2
3
11.
Toute personne ayant besoin d'utiliser ces systèmes aimerait s'en servir.
.56
4.
Je pense avoir été capable de réussir assez rapidement ce que je devais
faire avec ces systèmes.
.66
8.
Je suis certain(e) de pouvoir réussir ce que je dois faire en utilisant ces
systèmes.
.69
14.
J'ai détesté utiliser ces systèmes.
.81
15.
L'utilisation de ces systèmes me fait perdre du temps.
.68
18.
L'utilisation de ces systèmes m'a énervé(e).
.73
5.
La manière dont les systèmes fonctionnent rend difficile mon travail.
.67
13.
Ces systèmes sont difficiles à utiliser.
.70
2.
Je pense que j'aurai besoin d'un mode d'emploi ou d'aide pour pouvoir utiliser
ces systèmes.
.58
10.
J'ai eu besoin d'apprendre beaucoup de choses avant de pouvoir me servir
de ces systèmes.
.60
Note. Les saturations en dessous de < .40 ne sont pas affichées dans le tableau.
Cette dernière solution factorielle à trois facteurs explique 49,52 % de la variance totale. La première
composante faisant référence à la performance des systèmes explique 24,10 % de la variance totale. La
deuxième composante liée à l’insatisfaction explique 13,32 % de la variance totale. La troisième
composante représentant la difficulté d’apprentissage ou la difficulté de prise en main du système explique
quant à elle 12,10 % de la variance totale.
Analyse de la consistance interne
Dans le tableau 5, on observe que le niveau de cohérence des sous-échelles n'est satisfaisant que pour
le premier facteur avec des scores respectifs de = 0,71 (performance du système), alpha = 0,65
(insatisfaction), alpha = 0,57 (difficulté d'apprentissage).
Tableau 5
Le niveau de cohérence interne représenté par alpha et rho
Composantes
Performance
des
systèmes
Insatisfaction
Difficulté
d’apprentissage
Alpha
Rho
0,71
0,79
0,65
0,78
0,57
0,73
Cependant, certains auteurs avertissent que l'estimation de la fiabilité alpha peut être pessimiste et
représente souvent une estimation de la limite inférieure de la fiabili(Raykov et Shrout, 2002). Miller
(1995) explique en partie cette sous-estimation par la violation des hypothèses requises par le modèle
de mesure équivalent à Tau. Selon Kamata, Turhan et Darandari (2003), il n'est pas approprd'utiliser
l'alpha comme estimation de la fiabilité d'une échelle composite multidimensionnelle, sauf lorsque la
revue-mediations.teluq.ca N
o
5, 2021
58
revue-mediations.teluq.ca | N
o
5, 2021
15
corrélation entre les dimensions est élevée. Des alternatives à α ont été proposées dans le cadre du
modèle d'équation structurelle (SEM) (Miller, 1995). Bollen (1989) et Chin (1998) recommandent d'utiliser
le coefficient de détermination, ou indice composite (Dillon et Goldstein, 1984), plutôt que l'alpha de
Cronbach pour évaluer la cohérence interne. En effet, la cohérence interne des sous-échelles par le
calcul du coefficient de détermination est plus satisfaisante que par l'alpha de Cronbach avec des scores
respectifs de Rho = 0,79 (performance du système), Rho = 0,78 (insatisfaction), Rho = 0,73 (difficulté
d'apprentissage).
Au regard de l'analyse de la structure factorielle et de la consistance interne des échelles, 13 items
peuvent être retenus (voir annexe B).
Discussion
Les résultats de l’étude menée sur l'utilisabilité des technologies émergentes sur 127 élèves âgés de 9 à
11 ans tendent à montrer de bonnes propriétés psychométriques du K-Uses. Le questionnaire montre
une bonne consistance interne. Le K-Uses est fidèle, comme en témoignent les indices composites
supérieurs à 0,73 (.73 à 0,79) obtenus pour chacune des sous-échelles, plus précis que les alphas de
Cronbach. Sur le plan de la validité de construit, la structure factorielle en trois facteurs est plus ou moins
conforme aux modèles présentés dans la norme ISO 9241-11 et par Nielsen (Nielsen, 1994) au critère
d'apprentissage. Contrairement au SUS, notre échelle est multidimensionnelle. En utilisant les techniques
décrites précédemment, nous avons éliminé les items qui avaient de faibles saturations factorielles pour
limiter les items sans sacrifier la fiabilité de l'instrument. Nous avons réduit le nombre d’items à 13. Cette
réduction nous a également permis d'obtenir un outil de mesure facile à utiliser qui limite la fatigue de
l'utilisateur par son format court.
Cependant, nous trouvons trois facteurs au lieu de quatre et des items qui saturent dans des dimensions
autres que celles initialement prévues et dont il nous semble important de discuter. Il semblerait que les
items que nous avons supposé appartenir aux dimensions de l'efficacité et de l'efficience font partie d’un
seul et même facteur que nous avons interprété comme la performance perçue du système. Cela va dans
le sens du modèle classique des gestionnaires, Bourgeois et Hubault (2005) mentionnent que la
performance repose sur :
l’efficacité ou le degré de réalisation des objectifs;
l’efficience ou le degré d’engagement des ressources pour produire les résultats;
la pertinence ou le degré de cohérence entre les objectifs et les ressources.
Certains items semblent ne pas appartenir au facteur que nous leur avions initialement prédit. Par
exemple, l’item 6 : « Je me souviens facilement de la manière de se servir des systèmes » ne renvoie
pas ici à la facilité d’apprentissage, mais au facteur de la performance du système. Cet item semble faire
davantage référence à un système performant plutôt qu'à un système facile à s'approprier. Ensuite,
concernant le deuxième facteur qui correspond à la satisfaction, nous avons l’item 15 « L'utilisation de
ces systèmes me fait perdre du temps. », initialement associé au facteur d'efficacité dont l'expression
« est une perte de temps » semble être interprétée par les enfants comme une émotion d’énervement.
En effet, ce même item associé au meCUE (Minge et Riedel, 2013) est classé dans la dimension
« Émotion de l'utilisateur » (voir tableau). Enfin, pour le troisième facteur, qui peut être interprété comme
la difficulté d'apprentissage, les items 5 « La manière dont les systèmes fonctionnent rend difficile mon
travail » et 13 « Ces systèmes sont difficiles à utiliser » ne font pas référence à l'efficacité, mais sont
davantage perçus par les élèves de CM1 et CM2 comme une complexité d'utilisation qui rend
revue-mediations.teluq.ca N
o
5, 2021
59
revue-mediations.teluq.ca | N
o
5, 2021
16
l'apprentissage difficile. Ces changements nous semblent cohérents, puisqu’on retrouve les trois aspects
que constitue le concept d’utilisabilité, qui englobe la performance de réalisation de la tâche, la
satisfaction que procure l’utilisation du produit ou ici l’insatisfaction et la facilité avec laquelle on apprend
à s’en servir.
Pour résumer, le K-Uses comprend trois sous-catégories. Les points 1, 4, 6, 8, 9 et 11 sont liés à la
performance du système. Les points 14, 15 et 18 indiquent l’insatisfaction de l'utilisateur. Les points 2, 5,
10 et 13 indiquent la mesure dans laquelle l'utilisation du système peut poser des difficultés de prise en
main.
Il convient toutefois de noter également que les moyennes des notes obtenues aux items sont élevées
(> 3,11) pouvant poser problème quant à la sensibilité de l’échelle de mesure. Ce phénomène pourrait
s'expliquer par une série de facteurs sociaux et psychologiques qui influencent le choix des ponses des
enfants (Read et Fine, 2005). Par exemple, les enfants ne veulent pas dire à un adulte que le système
qu'ils ont construit n'est pas « génial ». C'est ce que l'on appelle le biais de désirabilité sociale, les
enfants ne répondent pas avec précision pour paraître plus attrayants aux yeux du chercheur et ne pas
le contrarier (Oerke et Bogner, 2013). Par la suite, des études devront être menées pour vérifier son
existence. Il y a également l’effet produit par la prescription de l’activité et de l’artefact, ici dans des
conditions exceptionnelles. Il serait intéressant d’évaluer K-Uses pour l’utilisation d’artefacts plus usuels
comme les environnements numériques de travail par exemple. Une autre explication que nous pouvons
donner est que cette échelle a été utilisée avec des systèmes éprouvés présentant une bonne utilisabilité.
Il n'y a donc pas beaucoup de problèmes avec ces systèmes et par conséquent une tendance
consensuelle à les trouver « bons ». Il serait opportun de faire passer cette échelle sur des systèmes en
cours de validation pour augmenter la variabilité des ressentis et diminuer peut-être ce consensus.
Conclusions et perspectives
Dans cet article, nous avons présenté le K-Uses, un questionnaire en français sur l'utilisabiliperçue
des systèmes numériques et technologiques éducatifs pour les élèves de CM1 et CM2. Ce questionnaire
sur l'utilisabilité a été conçu en trois étapes. La première étape de création a été réalisée en utilisant un
inventaire des questionnaires d'utilisabilité existants et l'expertise de trois évaluateurs. Ensuite, les
premiers éléments de validation et la fiabilité du K-Uses ont été évalués à l'aide de prétests sur des
enseignants et des élèves, et d'une analyse exploratoire avec une série d'essais sur le terrain auxquels
127 élèves ont participé.
Les résultats de cette analyse indiquent que le K-Uses peut déjà être utilisé par les concepteurs pour
recueillir les réactions des enfants français âgés de 9 à 11 ans sur leur perception de l'utilisabilité de tout
type de technologie à des fins éducatives. Ce questionnaire couvre les dimensions de la performance du
système, de l’insatisfaction et de la difficulté d’apprentissage de l'utilisabilià travers 13 items simples
qui le rendent facile à mettre en œuvre. Les travaux futurs permettront de contre-valider ces résultats par
une analyse factorielle confirmatoire sur un nouvel ensemble de données. Par ailleurs, il est nécessaire
de mener plusieurs études pour juger de sa valeur réelle à long terme. Cette étude est également le point
de départ d'autres études qui permettront de tester l'efficacité de K-Uses sur des populations d'âges
différents (par exemple, adolescents, adultes novices).
revue-mediations.teluq.ca N
o
5, 2021
60
revue-mediations.teluq.ca | N
o
5, 2021
17
Remerciements
Cette étude fait partie du projet e-TAC, soutenu financièrement par le gouvernement français dans l'appel
à projets e-FRAN, inscrit dans le cadre du Programme d'Investissements de l’avenir (PIA) géré par la
Caisse des Dépôts et Consignation. Nous tenons à remercier Pierre Humbert, Benoît Roussel, Julien
Bonhomme et Amandine Pilorge pour leur participation à la coordination des ateliers. Nous souhaitons
également remercier tous les enfants qui ont participé avec leur enseignant et l’Atelier Canopé 57 pour
l’accueil au sein de leur structure et leur prêt de matériel.
Liste de références
Bangor, A., Kortum, P. T. et Miller, J. T. (2008). An empirical evaluation of the system usability scale. Journal of Human
Computer Interaction, 24(6), 574-594.
https://doi.org/10.1080/10447310802205776
Barendregt, W., Bekker, M. M. et Baauw, E. (2008). Development and evaluation of the problem identification picture cards
method. Cognition, Technology & Work, 10(2), 95-105.
https://doi.org/10.1007/s10111-007-0066-z
Bell, A. (2007). Designing and testing questionnaires for children. Journal of Research in Nursing, 12(5), 461-469.
https://doi.org/10.1177/1744987107079616
Bennett, J., Case, D., Sandelin, J. et Smith, M. (1984). Visual display terminals: usability issues and health concerns.
Englewood Cliffs, New Jersey: Prentice-Hall.
Blikstein, P. et Krannich, D. (2013). The makers' movement and FabLabs in education: experiences, technologies, and
research. Communication présentée lors de la 12
e
conférence internationale sur l'interaction le design et les enfants
(IDC), New York, USA.
Bollen, K. A. (1989). Structural Equations with Latent Variables. New York: John Wiley et Sons.
Borgers, N. (2000). Children as respondents in survey research: cognitive development and response quality. Bulletin de
Méthodologie Sociologique, 66, 60-75.
https://doi.org/10.1177/075910630006600106
Borgers, N., Sikkel, D. et Hox, J. (2004). Response effects in surveys on children and adolescents: The effect of number of
response options, negative wording, and neutral mid-point. Quality and Quantity, 38(1), 17-33.
https://doi.org/10.1023/B:QUQU.0000013236.29205.a6
Bourgeois, F. et Hubault, F. (2005). Prévenir les TMS. De la biomécanique à la revalorisation du travail, l’analyse du geste
dans toutes ses dimensions. Activités, 2(2-1).
https://doi.org/10.4000/activites.1561
Brooke, J. (1996). SUS-A quick and dirty usability scale. Usability evaluation in industry, 189(194), 4-7.
Bumbacher, E., Deutsch, A., Otero, N. et Blikstein, P. (2013). BeatTable: a tangible approach to rhythms and ratios.
Communication présentée lors de la 12
e
conférence internationale sur l'interaction le design et les enfants (IDC),
New York, USA.
Chin, W. W. (1998). The partial least squares approach to structural equation modeling. Dans G. A. Marcoulides (dir.),
Methodology for business and management. Modern methods for business research (p. 295-336). Mahwah, NJ:
Lawrence Erlbaum Associates Publishers.
Cronbach, L. J. (1951). Coefficient Alpha and the internal structure of tests. psychometrika, 16(3), 297-334.
https://doi.org/10.1007/BF02310555
Cuendet, S., Bonnard, Q., Do-Lenh, S. et Dillenbourg, P. (2013). Designing augmented reality for the classroom. Computers
& Education, 68, 557-569.
https://doi.org/10.1016/j.compedu.2013.02.015
Dillon, W. R. et Goldstein, M. (1984). Multivariate analysis: Methods and applications. New York: Wiley.
Druin, A. (2002). The role of children in the design of new technology. Behaviour and information technology, 21(1), 1-25.
https://doi.org/10.1080/01449290110108659
Dumas, J. S. et Fox, J. E. (2009). Usability testing : current practice and future directions. Dans J. A. Jacko et A. Sears (dir.),
The Human-Computer Interaction Handbook. Fundamentals, Evolving Technologies, and Emerging Applications
(p. 132-245). New York: Lawrence Earlbaum Associates.
Eason, K. D. (1984). Towards the experimental study of usability. Behaviour et Information Technology, 3(2), 133-143.
https://doi.org/10.1080/01449298408901744
revue-mediations.teluq.ca N
o
5, 2021
61
revue-mediations.teluq.ca | N
o
5, 2021
18
European Commission. (2019, 25/01/2019). Digital Education Policies. https://ec.europa.eu/jrc/en/digital-education-policies
European Commission/EACEA/Eurydice. (2013). Education and Training in Europe 2020: responses from the EU Member
States. Eurydice Report. Brussels: Eurydice.
https://eacea.ec.europa.eu/national-policies/eurydice/content/education-and-
training-europe-2020-responses-eu-member-states_en
Finstad, K. (2006). The system Usability Scale and Non-Native English Speakers. Journal of Usability Studies, 1(4), 185-
188.
Fitton, D. et Bell, B. (2014). Working with teenagers within HCI research: understanding teen-computer interaction.
Communication présentée lors de la 28
e
conférence internationale Britich computer society (BCS) sur l'interaction
homme-machine (HCI) 2014, Southport, UK.
Fleck, S., Baraudon, C., Frey, J., Lainé, T. et Hachet, M. (2018). “Teegi’s so Cute!”: Assessing the Pedagogical Potential of
an Interactive Tangible Interface for Schoolchildren. Communication présentée lors de la 17
e
conférence sur
l'interaction le design et les enfants (IDC 2018), Trondheim, Norvège.
Fleck, S. et Hachet, M. (2015). Helios: a tangible and augmented environment to learn optical phenomena in astronomy.
Communication présentée au SPIE 9793 Education and Training in Optics and Photonics (ETOP), Bordeaux, France.
Frei, P., Su, V., Mikhak, B. et Ishii, H. (2000). Curlybot: designing a new class of computational toys. Communication
présentée à la conférence sur les facteurs humains dans les systèmes informatiques SIGCHI, New York, USA.
Graafland, J. H. (2018). New technologies and 21st century children: Recent trends and outcomes. Documents de travail de
l'OCDE sur l'éducation, 60, n°179, Éditions OCDE, Paris.
https://doi.org/10.1787/19939019
Greff, É. (2016). Le robot Blue-Bot et le renouveau de la robotique pédagogique. La nouvelle revue de l'adaptation et de la
scolarisation, (3), 319-335.
https://doi.org/10.3917/nras.075.0319
Hall, L., Hume, C. et Tazzyman, S. (2016). Five Degrees of Happiness: Effective Smiley Face Likert Scales for Evaluating
with Children. Communication présentée lors de la 15
e
conférence internationale sur Interaction Design and Children
(IDC), Manchester, Royaume-Uni.
Harmon, B. A. (2016). Embodied Spatial Thinking in Tangible Computing. Tangible and Embedded Interaction, Eindhoven,
Pays-Bas.
HolgadoTello, F. P., ChacónMoscoso, S., BarberoGarcía, I. et VilaAbad, E. (2010). Polychoric versus Pearson
correlations in exploratory and confirmatory factor analysis of ordinal variables. Quality et Quantity, 44(1), 153.
https://doi.org/10.1007/s11135-008-9190-y
Horn, J. L. (1965). A rationale and test for the number of factors in factor analysis. Psychometrika, 30(2), 179-185.
https://doi.org/10.1007/BF02289447
Hourcade, J. P. (2008). Interaction design and children. Foundations and Trends in Human-Computer Interaction, 1(4),
277-392.
https://doi.org/10.1561/1100000006
Hox, J., Borgers, N. et Sikkel, D. (2003). Response quality in survey research with children and adolescents: the effect of
labeled response options and vague quantifiers. International Journal of Public Opinion Research, 15(1), 83-94.
https://doi.org/10.1093/ijpor/15.1.83
ISO 9241-11. (1998). Ergonomic requirements for work with visual display terminals (VDTs) - Part 11: guidance on usability.
International Organization for Standardization.
Kamata, A., Turhan, A. et Darandari, E. (2003). Estimating reliability for multidimensional composite scale scores. Annual
meeting of American Educational Research Association, Chicago.
Kano, A., Horton, M. et Read, J. C. (2010). Thumbs-up scale and frequency of use scale for use in self reporting of children's
computer experience. Communication présentée lors de la 6
e
conférence sur l'interaction homme-machine (HCI) :
étendre les frontières, Reykjavik, Islande.
Kieras, D. (2009). Model-based evaluation. In J. A. Jacko et A. Sears (Eds.), The Human-Computer Interaction Handbook.
Fundamentals, Evolving Technologies, and Emerging Applications (second ed., p. 294-308). New York: Lawrence
Earlbaum Associates.
Laerhoven, H. v., Zaag-Loonen, H. v. d. et Derkx, B. H. (2004). A comparison of Likert scale and visual analogue scales as
response options in children's questionnaires. Acta paediatrica, 93(6), 830-835.
Lallemand, C., Koenig, V., Gronier, G. et Martin, R. (2015). Création et validation d’une version française du questionnaire
AttrakDiff pour l’évaluation de l’expérience utilisateur des systèmes interactifs. Revue Européenne de Psychologie
Appliquée, 65(5), 239-252.
revue-mediations.teluq.ca N
o
5, 2021
62
revue-mediations.teluq.ca | N
o
5, 2021
19
Lanna, L. C. et Oro, M. G. (2019). Touch gesture performed by children under 3 years old when drawing and coloring on a
tablet. International journal of human-computer studies, 124, 1-12.
https://doi.org/10.1016/j.ijhcs.2018.11.008
Lissitz, R. W. et Green, S. B. (1975). Effect of the number of scale points on reliability: A Monte Carlo approach. Journal of
Applied Psychology, 60(1), 10.
https://doi.org/10.1037/h0076268
Markopoulos, P., Read, J. C., MacFarlane, S. et Hoysniemi, J. (2008). Evaluating children's interactive products: principles
and practices for interaction designers. Amsterdam: Morgan Kaufmann Publishers, Inc.
https://doi.org/10.1016/B978-0-
12-374111-0.X0001-1
Martins, A. I., Rosa, A. F., Queirós, A., Silva, A. et Rocha, N. P. (2015). Definition and validation of the ICF - Usability scale.
Procedia Computer Science, 67, 132-139.
https://doi.org/10.1016/j.procs.2015.09.257
Mellor, D. et Moore, K. A. (2013). The use of Likert scales with children. Journal of pediatric psychology, 39(3), 369-379.
https://doi.org/10.1093/jpepsy/jst079
Mercier, E., Vourloumi, G. et Higgins, S. (2017). Student interactions and the development of ideas in multi-touch and paper-
based collaborative mathematical problem solving. British Journal of Educational Technology, 48(1), 162-175.
https://doi.org/10.1111/bjet.12351
Miller, M. B. (1995). Coefficient alpha: A basic introduction from the perspectives of classical test theory and structural
equation modeling. Structural Equation Modeling: A Multidisciplinary Journal, 2(3), 255-273.
https://doi.org/10.1080/10705519509540013
Minge, M. et Riedel, L. (2013). meCUE-Ein modularer fragebogen zur erfassung des nutzungserlebens. Mensch & Computer
2013: Interaktive Vielfalt.
Nielsen, J. (1994). Usability engineering. San Francisco, USA: Morgan Kaufmann Publishers Inc.
Nielsen, J., Clemmensen, T. et Yssing, C. (2002). Getting access to what goes on in people's heads?: reflections on the
think-aloud technique. Communication présentée lors de la 2
e
conférence sur l'interaction homme-machine (HCI),
Aarhus, Danemark.
Nonnis, A. et Bryan-Kinns, N. (2019). Mazi: a Tangible Toy for Collaborative Play between Children with Autism.
Communication présentée lors de la 18
e
Conférence internationale sur l'Interaction Design and Children (IDC), Boise,
USA.
OCDE. (2015). Students, Computers and learning: Making the Connection.Paris: Éditions OCDE.
https://doi.org/10.1787/9789264239555-en
Oerke, B. et Bogner, F. X. (2013). Social desirability, environmental attitudes, and general ecological behaviour in children.
International Journal of Science Education, 35(5), 713-730.
Olry, A., Veytizou, J., Vivian, R., Fleck, S. et Bertolo, D. (2020). CalMe : a tangible prototype to enhance pupils group work
regulation. Conference on tangible, embedded and emboddied interaction, papier soumis.
Ozok, A. A. (2009). Survey design and implementation in HCI. Dans A. S. J. A Jacko (dir.), The Human-Computer Interaction
Handbook. Fundamentals, Evolving Technologies, and Emerging Applications (p. 254-270). New York: Lawrence
Earlbaum Associates.
Papert, S. (1977). Computers communication: Implication for education. Dans M. R. R.J. Seidel (dir.), A learning environment
for children (Academic Press ed., p. 271-278). New York.
Raffle, H. S., Parkes, A. J. et Ishii, H. (2004). Topobo: a constructive assembly system with kinetic memory. Proceedings of
the SIGCHI conference on Human factors in computing systems, Vienne, Autriche.
Raykov, T. et Shrout, P. E. (2002). Reliability of scales with general structure: Point and interval estimation using a structural
equation modeling approach. Structural equation modeling, 9(2), 195-212.
Read, J. et Fine, K. (2005). Using survey methods for design and evaluation in child computer interaction. Workshop on Child
Computer Interaction: Methodological Research at Interact, Rome, Italie.
Read, J. C. (2008). Validating the Fun Toolkit: an instrument for measuring children’s opinions of technology. Cognition,
Technology & Work, 10(2), 119-128.
Read, J. C. (2015). Children as participants in design and evaluation. Interactions, 22(2), 64-66.
Read, J. C., Gregory, P., MacFarlane, S., McManus, B., Gray, P. et Patel, R. (2002). An investigation of participatory design
with children-informant, balanced and facilitated design. Interaction design and Children, Eindhoven, Amsterdam.
Sapounidis, T., Demetriadis, S., Papadopoulos, P. M. et Stamovlasis, D. (2019). Tangible and graphical programming with
experienced children: A mixed methods analysis. International Journal of Child-Computer Interaction, 19, 67-78.
revue-mediations.teluq.ca N
o
5, 2021
63
revue-mediations.teluq.ca | N
o
5, 2021
20
Scott, J. (1997). Children as respondents: Methods for improving data quality. Survey measurement and process quality,
331-350.
Sharfina, Z. et Santoso, H. B. (2016). An Indonesian adaptation of the System Usability Scale (SUS). Communication
présentée lors de la 8
e
conférence internationale Advanced Computer Science and Information Systems, ICACSIS
2016, Malang, Indonésie.
Trouillot, E. (2016). Mathador. Consulté à l'adresse
https://www.mathador.fr/numerique.html
Vallerand, R. J. (1989). Vers une méthodologie de validation trans-culturelle de questionnaires psychologiques: Implications
pour la recherche en langue française. Canadian Psychology, 30(4), 662.
Verillon, P. et Rabardel, P. (1995). Cognition and artifacts: A contribution to the study of though in relation to instrumented
activity. European journal of psychology of education, 10(1), 77-101.
Veytizou, J., Bertolo, D., Baraudon, C., Olry, A. et Fleck, S. (2018). Could a Tangible Interface help a child to weigh his/her
opinion on usability? 30
e
conférence francophone sur l'interaction homme-machine, Brest, France.
Wang, D., Qi, Y., Zhang, Y. et Wang, T. (2013). TanPro-kit: a tangible programming tool for children. Conférence présentée
lors de la 12
e
conférence internationale sur l'interaction le design et les enfants (IDC), New York, USA.
Watkins, M. W. (2000). Monte Carlo PCA for parallel analysis [computer software]. State College: Ed et Psych Associates.
Yang, T., Linder, J. et Bolchini, D. (2012). DEEP: Design-oriented evaluation of perceived usability. International Journal of
Human-Computer Interaction, 28(5), 308-346.
https://doi.org/10.1080/10447318.2011.586320
Yarosh, S. et Schueller, S. M. (2017). “Happiness inventors”: Informing positive computing technologies through participatory
design with children. Journal of medical Internet research, 19(1), e14.
https://doi.org/10.2196/jmir.6822
Yusoff, Y., Ruthven Ian et Monica, L. (2011). The Fun Semantic Differential Scales IDC 2011, Ann Arbor, USA.
Zaman, B. (2009). Introducing a pairwise comparison scale for UX evaluations with preschoolers. Communication présentée
lors de la conférence IFIP sur l'interaction homme-machine (HCI), Uppsala, Suède.
Zaman, B. et Abeele, V. V. (2010). Laddering with young children in User eXperience evaluations: theoretical groundings
and a practical case. Communication présentée lors de la 9
e
conférence internationale sur l'Interaction Design and
Children (IDC), Barcelone, Espagne.
revue-mediations.teluq.ca N
o
5, 2021
64
revue-mediations.teluq.ca | No. 5, 2021
21
Annexes
ANNEXE A
Tableau des questionnaires d’utilisabilité existants avec leurs critères
Nom de
l’échelle
Nombre
d’items
Systèmes
évalués
Format
d’échelle
Population
cible
Références
QUIS
27
Tout type de
produits
électroniques
Likert à 9 pts (2
antonymes +
NA)
150 membres /
affiliés d'un groupe
d'utilisateurs de
PC locaux allant
de 14 à 78 ans
Chin, J. P., Diehl, V. A. et Norman, K. L. (1988). Development of an instrument
measuring user satisfaction of the human-computer interface. Proceedings of
ACM CHI’88, 213218
EUCS
12
Site Web
Likert à 5 pts
Jamais-
toujours
96 utilisateurs
finaux
Doll, W. J. et Torkzadeh, G. (1988). The measurement of end-user computing
satisfaction. MIS quarterly, 259-274.
PUEU
12
Tout type de
produits
électroniques
Likert en 7 pts
Probable -
improbable
120 utilisateurs au
sein de l'Office de
développement de
Toronto d'IBM
Canada
Davis, F. D. (1989). Perceived usefulness, perceived ease of use, and user
acceptance of information technology. MIS Quarterly, 13, 319340.
CUSQ
19
Tout type de
produits
électroniques
Likert à 7 pts
Désaccord-
accord + NA
377
Lewis, J. R. (1995). IBM computer usability satisfaction questionnaires:
Psychometric evaluation and instructions for use. International Journal of Human-
Computer Interaction, 7, 5778.
ASQ
3
Tout type de
système
Likert à 7 pts
Désaccord -
accord
Adultes
Lewis, J. R. (1995). IBM computer usability satisfaction questionnaires:
Psychometric evaluation and instructions for use. International Journal of Human-
Computer Interaction, 7, 5778.
SUS
10
Tout type de
produits
électroniques
Likert à 5 pts
Désaccord-
accord
Adultes
Brooke, J. (1996). SUS-A quick and dirty usability scale. Usability evaluation in
industry, 189(194), 4-7
PUTQ
100
Tout type de
produits
électroniques
Likert à 9 pts
Désaccord-
accord
8 étudiants de 23 à
27 ans
Lin, H. X., Choong, Y.-Y. et Salvendy, G. (1997). A proposed index of usability: A
method for comparing the relative usability of different software systems. Behavior
et Information Technology, 16, 267278.
USE
30
Tout type de
produits
électroniques
Likert en 7 pts
Pas du tout
d'accord-tout à
fait d'accord +
Adultes
Lund, A. M. (2001). Measuring usability with the USE Questionnaire. STC
Usability SIG Newsletter, 8(2).
revue-mediations.teluq.ca N
o
5, 2021
65
revue-mediations.teluq.ca | No. 5, 2021
22
Nom de
l’échelle
Nombre
d’items
Systèmes
évalués
Format
d’échelle
Population
cible
Références
Non applicable
User-
perceived
web quality
instrument
25
Site Web
Likert à 7 pts
Désaccord-
accord
101 étudiants de
18 à 21 ans
Aladwani, A. M. et Palvia, P. C. (2002). Developing and validating an instrument
for measuring user-perceived web quality. Information et management, 39(6),
467-476.
Perceived
website
usability
measurement
scale
8
Site Web
Likert à 7 pts
Désaccord-
accord
350 étudiants
Wang, J. et Senecal, S. (2008). Measuring perceived website usability. Journal of
Internet Commerce, 6, 97112.
UMUX
4
Tout type de
produits
électroniques
Likert à 7 pts
Désaccord-
accord
42 employés
d'Intel
Finstad, K. (2010). The usability metric for user experience. Interacting with
Computers, 22, 323327.
DEEP
19
Site Web
Likert à 5 pts
Désaccord-
accord +NA
12 étudiants 196
étudiants pour
test1 et 362 test2
Yang, T., Linder, J. et Bolchini, D. (2012). DEEP: design-oriented evaluation of
perceived usability. International Journal of Human-Computer Interaction, 28(5),
308-346.
UMUX-LITE
2
Tout type de
produits
électroniques
Likert à 7 pts
Désaccord-
accord
Employés d'IBM
Lewis, J., Utesch, B. et Maher, D. (2013). UMUX-LITE: when there's no time for
the SUS. Proc. Of CHI 2013, 2099-2102.
ICF-US
10
Site Web
-3 à 3 barrière
et facilitateur
Gros-moyen-
petit
Plus de 18 ans
Martins, A. I., Rosa, A. F., Queirós, A., Silva, A. et Rocha, N. P. (2015). Definition
and Validation of the ICFUsability Scale. Procedia Computer Science, 67, 132-
139.
WAMMI
20
Site Web
Likert à 5 pts
Désaccord-
accord
Adultes
Kirakowski, J., Claridge, N. et Whitehand, R. (1998). Human centered measures
of success in web site design. Paper presented at the Human Factors and the
web. Workshop.
Revue internationale sur le numérique en éducation et communication
revue-mediations.teluq.ca N
o
5, 2021
66
ANNEXE B
K-USES
Prénom: ………. Groupe: … Sexe: …. Âge : …… Classe : …….
Kids, Utilisabilité des Systèmes et des Environnements Scolaires
Pour chaque phrase, coche la case qui correspond le mieux à ton niveau d’accord
sur une échelle en 5 points allant de « Pas du tout d’accord » à « Tout à fait d’accord ».
1. Je peux réaliser ce que je dois faire ecacement avec
ces systèmes.
2. Je pense que j'aurai besoin d'un mode d'emploi ou
d'aide pour pouvoir utiliser ces systèmes.
3. Je pense avoir été capable de réussir assez
rapidement ce que je devais faire avec ces systèmes.
4. La manière dont les systèmes fonctionnent rend
difficile mon travail.
5. Je me souviens facilement de la manière de se servir
de ces systèmes.
6. Je suis certain(e) de pouvoir réussir ce que je dois
faire en utilisant ces systèmes.
7. Grâce à ces systèmes, je vais pouvoir réussir mon
travail.
8. J’ai eu besoin d'apprendre beaucoup de choses
avant de pouvoir me servir de ces systèmes.
9. Toute personne ayant besoin d'utiliser ces systèmes
aimerait s'en servir.
10. Ces systèmes sont difficiles à utiliser.
revue-mediations.teluq.ca N
o
5, 2021
67
revue-mediations.teluq.ca | No. 5, 2021
24
11. J’ai détesté utiliser ces systèmes.
12. L’utilisation de ces systèmes me fait perdre du temps.
13. L’utilisation de ces systèmes m'a énervé(e).