**El dictado de Apple y el eco del "racismo" en nuestras pantallas**
Todo comenzó cuando un usuario de TikTok se dio cuenta de que al dictar la palabra "racista", el sistema de reconocimiento de voz de Apple, en un arrebato casi cómico (pero muy serio), escribía "Trump". Así, como quien no quiere la cosa, se disparó una polémica que ha dejado a muchos con la boca abierta y a otros con ganas de reír o llorar.
Creanme cuando les digo que no me extraña en exceso. Lo primero es porque Trump es claramente racista, y por tanto tampoco es tan raro el comportamiento de una Inteligencia Artificial. Pero también hay otra evidencia, y es que, por mucho que le pese a Trump, en las tecnológicas trabajan muchas personas extranjeras o hijas de inmigrantes que ya son ciudadanos norteamericanos de pleno derecho, y que también es normal que estén hartas de sujetos como su presidente, y haya querido gastar esta "broma".
Primero, déjenme contarles algo. En mi casa, siempre hemos sido muy aficionados a la tecnología. Mi hermano pequeño, que tiene más gadgets que un niño de su edad debería tener (y eso es mucho decir), suele usar el dictado para hacer sus tareas. Un día le escuché dictando algo sobre sus deberes y me dio por pensar: “¿Y si dice algo raro y el iPad le responde con una barbaridad?”. La idea me hizo reír, pero ahora veo que podría haber sido más que una broma.
Volviendo al tema, Apple rápidamente reconoció el fallo técnico. Pero claro, lo hizo sin mencionar directamente lo que había pasado. Según ellos, los modelos de reconocimiento de voz pueden confundirse con palabras que contengan una “r”. ¿En serio? Me imagino a los ingenieros de Apple en su laboratorio en Cupertino intentando explicar cómo es posible que un algoritmo se confunda entre “racista” y “Trump”. ¡Qué nivel!
Las redes sociales no tardaron en encenderse. El vídeo del TikToker se volvió viral y los comentarios no se hicieron esperar. Algunos se lo tomaron a risa; otros, sin embargo, vieron en esto un reflejo preocupante de cómo la tecnología puede reproducir sesgos culturales y políticos. Aquí en Almería, donde muchas veces hablamos entre amigos sobre lo absurdo del mundo digital, este caso nos llevó a preguntarnos: ¿Hasta qué punto confiamos en las máquinas?
Recuerdo una vez que mi amiga María intentó usar Siri para buscar información sobre un restaurante local. Le dijo: "Siri, busca el mejor chiringuito de Almería". Y Siri le respondió con algo totalmente diferente: "No he encontrado nada relacionado con 'chirigota'". Nos partimos de risa porque parecía que Siri tenía más ganas de carnaval que de comida. Pero esto es diferente; aquí hay un trasfondo serio.
Los expertos han señalado que este tipo de errores pueden ser más comunes de lo que pensamos. No solo afecta a Apple; muchas plataformas tienen problemas similares. Y aunque Apple intenta justificarlo diciendo que son errores ocasionales, yo me pregunto: ¿qué pasa cuando esos errores afectan temas tan delicados como el racismo? ¿Estamos dispuestos a aceptar esas fallas?
Creo que debemos ser críticos con la tecnología que usamos. No podemos dejar que un algoritmo decida por nosotros ni mucho menos que reproduzca discursos dañinos sin control alguno. Como almeriense y periodista, siento la responsabilidad de cuestionar estos fallos y exigir más a las empresas tecnológicas.
Quizás sea solo un error técnico… o tal vez sea una oportunidad para reflexionar sobre cómo interactuamos con el mundo digital. Porque si hay algo claro es que no podemos permitirnos vivir en un mundo donde "racista" se convierta en "Trump" sin cuestionarlo primero. ¡Menuda locura!