En el proceso del desarrollo de tecnologías, es posible 'borrar' a las personas que las usan; al mismo tiempo, la falta de competencia de esas personas se menciona como la razón de que no puedan usar efectivamente las tecnologías. Basándose en hallazgos empíricos recientes de investigaciones y talleres, así como en ejemplos actuales, esta publicación aborda la diferencia, la diversidad y la tecnología.
En la historia de las tecnologías abundan casos en que se revelan los sesgos e intenciones de quienes las diseñan y desarrollan.
Por ejemplo, la ‘Tarjeta Shirley’ fue una norma usada en laboratorios fotográficos analógicos norteamericanos para ‘equilibrar el color de la piel’. En ella se utilizaba a una mujer de raza blanca con un vestido de colores vivos y de alto contraste para medir los tonos de piel en la fotografía que iba a ser impresa. Dado que esa era la norma para la impresión, las personas de piel más oscura aparecían ya sea ‘sobreexpuestas’ o ‘desteñidas’ en las fotografías. Dicho de manera sencilla: la tecnología de la impresión fotográfica analógica no fue desarrollada teniendo en mente a personas de piel más oscura.
Otra versión de esto fue descubierta por Alexis Madrigal cuando examinó el Reloj de Apple. Madrigal descubrió que el monitor del pulso cardíaco, uno de los elementos más atractivos del reloj, no funcionaba tan eficazmente en personas de piel más oscura. Este monitor usaba una técnica para evaluar cómo un rayo de luz proveniente del reloj se difundía por la superficie de la piel de quien lo llevaba y era absorbido por ella. Sin embargo, esta función no operaba bien en alguien de piel más oscura.
Madrigal señala en un artículo que esta tecnología fue puesta a prueba con la dirigencia de Apple y muestra las fotografías de ellxs que figuran en el sitio virtual corporativo: todxs son de raza blanca.
Nana Darkoa Sekyiamah, Gerente de las Comunicaciones de AWID, habló de un problema similar.
«Para generar entusiasmo en torno al Foro 2016 de AWID, decidimos lanzar una campaña en Twibbon. Lxs activistas que asisten al Foro provienen de diversos orígenes y movimientos y siempre nos aseguramos de que todas las comunicaciones de AWID reflejen su diversidad. Imagina nuestra desilusión cuando nos percatamos de que la imagen por defecto asociada con las campañas de Twibbon está predeterminada en su sistema, por lo cual no podíamos tener una imagen elegida por nosotrxs vinculada a nuestra campaña. Y efectivamente, si imaginaste que la imagen que aparecía era la de una sonriente mujer rubia y blanca, acertaste».
En la arquitectura, el diseño y la tecnología existen numerosos ejemplos de esta clase de supresión de la diversidad de lxs usuarixs. Esas decisiones sobre el diseño son políticas. Este ensayo se refiere más a lxs desarrolladorxs y a los contextos del diseño y el desarrollo, un sector que tiende a ser mayoritariamente invisible.
Diseños para la seguridad
En 2016, Tactical Tech [Colectivo de Tecnología Táctica] publicó una investigación sobre la sostenibilidad de la formación y la adopción de nuevas herramientas y prácticas digitales dentro del campo de la seguridad digital para defensorxs de derechos humanos. El estudio, Digital Security in Context: Learning about how human rights defenders adopt digital security practices’ [La seguridad digital en contexto: Aprendiendo sobre cómo defensoras/es de derechos humanos adoptan prácticas de seguridad digital], examina las experiencias directas de defensorxs de derechos humanos tanto durante como después de recibir esta formación.
La adopción de nuevas prácticas digitales de seguridad es difícil, tanto así que incluso Hillary Clinton podría haber puesto en peligro la seguridad nacional estadounidense al rehusarse a dejar de usar su teléfono Blackberry y a compartir mensajes delicados por medio de su cuenta privada de correo electrónico.
En el caso de las tecnologías digitales de seguridad especializadas y difíciles de usar subyace la suposición de que la persona usuaria tendrá todos los conocimientos que necesita para utilizar la herramienta. Al examinar investigaciones recientes sobre la usabilidad de la tecnología en las herramientas para seguridad digital, Becky Kazansky escribe:
«Pese a que se pone un mayor énfasis en los factores humanos y a que hay cada vez más saber académico dentro del campo de la informática sobre la interacción entre la persona y la computadora, una parte de la literatura sobre los factores humanos continúa enmarcando los problemas de seguridad como atribuible a ‘errores humanos’ de las personas usuarias y no a sesgos de los diseñadores o a la rigidez de los sistemas. Lo que sabe la gente que no es experta ni profesional se presenta como el principal obstáculo para una buena seguridad».
Lxs defensoras/es involucradxs en este estudio necesitaron entender la seguridad y privacidad digitales en un léxico basado mayormente en el idioma inglés. Esto se sumó a los retos generales que implica crear estrategias constructivas y apropiadas de seguridad digital, convirtiéndose en un problema tanto para el uso de herramientas en sí como para los espacios de aprendizaje y debate, entre ellos las formaciones.
Una persona participante que brinda formación y colabora con la red mundial de traducción en 16 idiomas de la Caja de Herramientas y Tácticas para la Seguridad Digital consideró que se estaba contribuyendo a la desaparición de su propio idioma: «Quiero mantener vivo mi idioma. Es importante para mí. Si no se lo puede traducir, está terminado».
Sin embargo, muchxs participantes y capacitadorxs a quienes se entrevistó explicaron que la traducción de los recursos y elementos relacionados con las interfases no garantiza la legibilidad cultural de las herramientas y de los conceptos relacionados con ellas. También puntualizaron que en los esfuerzos de traducción frecuentemente no se encuentran las palabras correctas, contextualmente apropiadas o deseables en cada idioma: «el desafío no consiste solo en traducir, porque existen ciertas palabras para las que no hay una correspondencia de significado necesaria». Dijeron que priorizar los significados locales y contextuales implicaría examinar metáforas con pertinencia cultural para describir las relaciones humanas con las tecnologías en red.
En un grupo, el equipo de investigación aprendió que no había una analogía apropiada para la palabra ‘protección’, ya que este término tenía una connotación negativa en el idioma local. Asimismo, la traducción de las palabras ‘cifrado / codificación / encriptación’ era una palabra que significaba ‘difícil de comprender’. Dos de los grupos fueron incapaces de identificar la palabra local para ‘vigilancia’. Lxs participantes decidieron que el término apropiado para ‘vigilancia’ sería ‘monitorización’, pero que esta no era una palabra de uso común y, cuando era utilizada, se relacionaba «con personas pero no con tecnología».
¿Diseñando para la diferencia?
A veces, sin embargo, convertir la ‘diferencia’ en un fetiche puede ser una manera de influir en la comercialización; también puede ser peligroso, invasivo o exponer a la gente. Tomemos como ejemplo el teléfono rosa: sin ninguna diferencia en absoluto en la tecnología subyacente o en las habilidades necesarias para usarlo, ¿por qué se lo califica como un ‘teléfono para mujeres’?
En una reciente investigación realizada por Tactical Tech, Privacy, Visibility, Anonymity: Dilemmas in Tech Use by Marginalised Communities [Privacidad, visibilidad, anonimato: Dilemas en el uso de la tecnología por comunidades marginadas], descubrimos que un crowdmap creado con la intención de hacer visible la violencia contra personas LGBTQ en Kenia terminó siendo poco popular pues quienes lo usaban no creían que denunciar la violencia realmente conduciría a recibir algún apoyo.
Es más: desconfiaban de poner información personal en un crowdmap anónimo. Al mismo tiempo, no debemos suponer que la gente carece de habilidades.
El ejemplo histórico más famoso de personas usuarias que ‘reconfiguran’ la tecnología es la llamada perdida: a fin de evitar pagar dinero por una llamada, comenzaron a hacer llamadas perdidas para enviarse advertencias unxs a otrxs. En el estudio realizado en Kenia aprendimos que keniatas queer estaban subvirtiendo activamente la (ahora flexible) ‘política del nombre real’ de Facebook teniendo dos o más cuentas para evitar que sus familias y otras personas homofóbicas de la comunidad les detectaran.
La persona usuaria es un problema para quienes diseñan y desarrollan tecnologías: ¡somos demasiadxs! Indudablemente es complejo equilibrar la ampliación y transversalización de las tecnologías con la diversidad de personas usuarias; no obstante, sin un reconocimiento desde el comienzo mismo de las dinámicas de la diferencia en los diversos contextos, las tecnologías pueden fácilmente fallar en sus objetivos.
Sobre la autora
Maya Ganesh es la Directora de Investigación Aplicada en el Tactical Technology Collective [Colectivo de Tecnología Táctica].