Informez-vous

Votre source d’information par excellence sur les dernières tendances touchant la justice de genre et les droits des femmes dans le monde

Utilisatrices et utilisateurs : Le défi des technologies numériques

Les utilisatrices et utilisateurs sont souvent ‘effacé-e-s’ ou négligé-e-s dans le processus de développement de la technologie. Par ailleurs, la raison la plus citée pour expliquer leur incapacité à utiliser efficacement la technologie est leur manque de compétence. Ce message qui s’inspire des conclusions empiriques récentes de la recherche, d’ateliers et d’exemples actuels, examine les différences, la diversité et les technologies.


L’histoire de la technologie regorge de cas qui révèlent la partialité et les intentions des concepteurs et développeurs.

Ainsi, tous les laboratoires nord-américains de photographie analogique calibraient le rendu couleur selon le standard de la ‘Shirley Card’ pour produire un rendu équilibré de la couleur de peau. Cette carte, qui représente une femme blanche portant un vêtement coloré très contrasté, était utilisée pour mesurer les nuances de la peau sur la photo à imprimer.

Comme c’était la norme pour l’impression photo, les personnes à la peau plus sombre semblaient ‘balayées’ ou ‘délavées’ sur les photos. Plus simplement, la technologie d’impression des photos analogiques a été développée sans tenir compte des gens à peau plus sombre.

Alexis Madrigal a trouvé un autre exemple en examinant de plus près la montre Apple Watch. Madrigal a découvert que le cardiofréquencemètre, une des fonctionnalités les plus attrayantes de la montre, ne fonctionne pas très bien sur les personnes à peau sombre.

Ce capteur utilise une technique pour évaluer la dispersion d’un rayon lumineux de la montre et son absorption par la surface de la peau de celui qui la porte. Mais il ne fonctionne pas correctement sur une personne à peau plus sombre. Dans son article, Madrigal poursuit en disant que cette technologie a été testée sur les cadres supérieurs d’Apple et il présente leurs photos du site Web de la société : ce sont tous des blancs.

Nana Darkoa Sekyiamah, chargée de la communication à l’AWID, évoque un défi comparable.

« Afin de susciter l’enthousiasme pour le Forum de l’AWID 2016, nous avons décidé de lancer une campagne Twibbon. Les activistes qui participent au Forum sont originaires de différents contextes et mouvements, et nous veillons toujours à ce que toutes les communications de l’AWID parlent à toute la diversité de nos mouvements. Imaginez notre déception quand nous nous sommes rendu compte que l’image associée aux campagnes Twibbon est programmée dans leur système et que nous ne pouvions pas associer une image de notre choix à notre campagne. Oui, vous avez raison, si vous avez deviné que la photo était celle d’une femme blanche, une blonde souriante. »

(Réponse d’un-e défenseur-e des droits humains à un exercice de l’atelier de recherche consistant à décrire sa perception d’Internet. Photo avec l’aimable autorisation de Tactical Tech.)

Il y a de nombreux exemples de ce type de gommage de la diversité des utilisatrices et utilisateurs dans l’architecture, le design et la technologie. Ces choix de design sont politiques. Cela en dit long sur les développeurs et les contextes de la conception et du développement, une communauté qui tend généralement à être invisible.

Conception et réalisation pour la sécurité

Dans la niche des technologies numériques de sécurité difficiles à utiliser, on suppose généralement que l’utilisatrice ou l’utilisateur a toutes les connaissances nécessaires pour utiliser l’outil.

Becky Kazansky analyse de la façon suivante les recherches récentes sur la facilité d’utilisation des outils numériques de sécurité :

« Bien que l’informatique accorde une plus grande attention aux facteurs humains et connaisse mieux les interactions entre l’être humain et l’ordinateur, une partie de la littérature sur les facteurs humains continue à attribuer les problèmes de sécurité à une ‘erreur humaine’ des utilisateurs plutôt qu’à la partialité des concepteurs ou aux systèmes rigides. Le manque de connaissances ou d’expertise est présenté comme le principal obstacle à la bonne sécurité. »

Il est difficile d’adopter de nouvelles pratiques de sécurité numérique, à tel point que même Hillary Clinton risque d’avoir mis en danger la sécurité nationale américaine en refusant de renoncer à son BlackBerry et en envoyant des courriels sensibles à partir de son compte email personnel.

En 2016, Tactical Tech a publié une étude sur la durabilité de la formation et l’adoption de nouveaux outils et pratiques numériques dans le domaine de la sécurité numérique des défenseur-e-s des droits humains. ‘Digital Security in Context: Learning about how human rights defenders adopt digital security practices’ (Mise en contexte de la sécurité numérique : savoir comment les défenseur-e-s des droits humains adoptent des pratiques de sécurité numérique) étudie les expériences directes des défenseur-e-s des droits humains au cours de la formation et après.

Les défenseur-e-s des droits humains ayant participé à cette étude devaient comprendre la sécurité numérique et le respect de la confidentialité à l’aide d’un lexique essentiellement en langue anglaise, ce qui compliquait d’autant plus les efforts visant à créer des stratégies de sécurité numérique constructives et appropriées, et causait des problèmes à la fois pour l’utilisation de l’outil et dans les lieux d’apprentissage et de discussion, notamment durant les formations.

Un-e participant-e, formateur-trice et membre du réseau mondial de traduction en seize langues de Security in a Box estimait que cet état de choses contribuait à faire disparaître de leur langue : « Je veux que ma langue reste vivante. C’est important pour moi. Si l’on ne peut pas traduire, cela veut dire que la langue n’existe plus. »

Beaucoup de participant-e-s et de formateurs-trices interrogé-e-s ont toutefois expliqué que la traduction des ressources liées à l’outil et des éléments des interfaces de l’outil ne garantit pas la lisibilité culturelle des outils et concepts. Les participant-e-s ont expliqué que les efforts de traduction parviennent rarement à trouver dans les langues respectives les mots corrects, acceptables ou appropriés dans le contexte : « La difficulté n’est pas seulement de traduire, mais certains mots n’ont pas d’équivalent littéral. » Les participant-e-s ont déclaré que le fait de donner la priorité aux significations locales, contextuelles exigerait de rechercher des métaphores culturellement pertinentes pour décrire les relations humaines avec les technologies en réseau.

Dans un des groupes, les chercheurs ont appris qu’il n’y a pas d’équivalent approprié pour le mot ‘protection’, parce que le terme qui désigne la protection dans la langue locale a une connotation négative. Le terme ‘encryption’ (encryptage) a été adéquatement traduit par un terme signifiant ‘difficile à comprendre’. Le mot local pour ‘surveillance’ était largement inconnu de deux groupes. Les participant-e-s du groupe ont décidé que le terme approprié pour surveillance était ‘monitoring’ (contrôle), mais ce n’est pas un mot courant et quand il est utilisé, monitoring se réfère ‘aux personnes et non à la technologie’.

Conception et réalisation pour mettre en valeur la différence ?

Cependant, il arrive parfois que faire de la ‘différence’ une obsession puisse devenir un outil de marketing. Cela peut également être dangereux, envahissant ou cela peut compromettre des personnes. Pensez aux téléphones roses : pourquoi sont-ils qualifiés de ‘téléphones pour femmes’ alors qu’ils ne possèdent aucune particularité technologique sous-jacente ou qu’ils n’exigent aucune compétence particulière pour les utiliser ?

Une récente étude de Tactical Tech, intitulée, Privacy, Visibility, Anonymity: Dilemmas in Tech Use by Marginalised Communities, (Confidentialité, visibilité, anonymat : les dilemmes auxquels sont confrontés les communautés marginalisées lorsqu’elles utilisent les technologies), indique qu’une crowdmap (cartographie sociale) ou carte collaborative créée en vue d’accroître la visibilité de la violence contre les personnes LGBTQ au Kenya s’est révélée impopulaire auprès des utilisatrices et utilisateurs non convaincu-e-s que la dénonciation de la violence se traduirait réellement par un quelconque soutien en leur faveur. En outre, ces personnes n’avaient aucune confiance dans l’inclusion d’informations personnelles dans une carte collaborative anonyme.

Par ailleurs, il ne faut pas s’imaginer que les utilisatrices et utilisateurs sont dépourvus de ressources. L’exemple historique le plus célèbre de détournement de la technologie est l’appel manqué : pour éviter de payer un appel, les utilisatrices et utilisateurs passent des appels manqués pour se prévenir mutuellement. L’étude sur le Kenya montre que des queer contournent activement la ‘politique du vrai nom’ (aujourd’hui assouplie) de Facebook en créant deux ou plusieurs comptes, pour éviter d’être découvert-e-s par leurs familles et les membres homophobes de leur communauté.

L’utilisatrice ou utilisateur constitue un cas difficile pour les concepteurs et les développeurs de technologie : nous sommes si nombreux-euses ! Certes, il est ardu de concilier la généralisation et l’intégration avec la diversité des utilisatrices et utilisateurs, mais les technologies qui ne reconnaissent pas l’existence d’une dynamique de la différence dans différents contextes, risquent de manquer leur but.

 


A propos de l'auteure

Maya Ganesh est Directrice de la recherche appliquée du collectif Tactical Technology Collective.

Category
Analyses
Region
Global