En muchos hogares de todo el mundo, no es raro que los niños hablen con Siri, el asistente virtual de Apple o con Alexa, que es el de Amazon, ya sea para hacerles una pregunta, solicitarles que pongan una canción o cualquier otra cosa. Pero aunque esto nos pueda parecer algo mundano de la vida doméstica, hay mucho en juego.
Los asistentes virtuales están continuamente escuchando, grabando y procesando sucesos sonoros en un proceso que combina espionaje y minería de datos. Esto plantea preocupaciones importantes relacionadas con cuestiones de privacidad y vigilancia, así como de discriminación, ya que los rastros sonoros de nuestras vidas se registran y analizan mediante algoritmos.
Te puede interesar: Inteligencia Artificial aprende de los bebés
Pero estas preocupaciones se intensifican si las aplicamos a los niños, ya que sus datos se estarían acumulando a lo largo de la vida de maneras que van mucho más allá de lo que se recopiló sobre sus padres, con consecuencias de gran alcance que ni siquiera hemos comenzado a comprender.
La adopción de estos dispositivos está avanzando a un ritmo asombroso, ya que se extiende para incluir teléfonos móviles, bocinas inteligentes y una cantidad cada vez mayor de productos que están conectados a internet, desde juguetes digitales para niños hasta sistemas de seguridad para el hogar que detectan robos y timbres inteligentes que pueden captar conversaciones en la banqueta.
Existen problemas apremiantes que se derivan de la recopilación, el almacenamiento y el análisis de datos sonoros en lo que respecta a padres, jóvenes y niños. Las alarmas se han disparado desde 2014, cuando los defensores de la privacidad expresaron su preocupación sobre cuánto escuchaba Amazon Echo, qué datos se recopilaba y cómo los motores de recomendación de Amazon utilizarían los datos.
Sin embargo, a pesar de estas preocupaciones, estos sistemas sólo se han extendido exponencialmente. Investigaciones de mercado recientes predicen que para 2024 la cantidad de dispositivos activados por voz se disparará a más de 8 mil 400 millones.
Te puede interesar: No te dejes estafar: Así operan los préstamos "gota a gota" en las app
Se recopila más que sólo frases, ya que los asistentes y otros sistemas de espionaje escuchan características personales de voces que involuntariamente revelan atributos biométricos y de comportamiento como la edad, el género, la salud, la intoxicación y la personalidad.
Los sistemas de espionaje ya tienen un historial reciente de colaboración con las agencias de aplicación de la ley y de ser citados para obtener datos en investigaciones criminales. Esto genera preocupaciones sobre otras formas de vigilancia y creación de perfiles de niños y familias.
También hay nuevos sistemas de espionaje presentados como una solución para mantener a los niños seguros llamados "detectores de agresión". Estas tecnologías consisten en sistemas de micrófonos cargados con software de aprendizaje automático, que afirman de manera dudosa que pueden ayudar a anticipar incidentes de violencia al escuchar señales de aumento de volumen y emociones en las voces, y otros sonidos como cristales rotos.
Algunos niños y jóvenes se verán desproporcionadamente perjudicados por esta forma de escucha, y los intereses de todas las familias no se protegerán ni atenderán de manera uniforme. Una crítica recurrente de la tecnología activada por voz es que reproduce sesgos culturales y raciales al imponer normas vocales y reconocer erróneamente formas de habla culturalmente diversas en relación con el idioma, el acento, el dialecto y la jerga.
➡️ Suscríbete a nuestro Newsletter y recibe las notas más relevantes en tu correo
Sin ningún requisito legal para borrar la información, los datos se acumulan a lo largo de la vida de los niños y pueden durar para siempre. Se desconoce cuánto tiempo y qué alcance seguirán estos rastros digitales a los niños a medida que envejecen, qué tan extendidos se compartirán estos datos o cuánto se cruzarán estos datos con otros datos. Estas preguntas tienen serias implicaciones en la vida de los niños tanto en la actualidad como a medida que envejecen.
Debemos considerar el avance de un marco colectivo que combata los riesgos únicos y las realidades de las escuchas ilegales. Tal vez el desarrollo de Principios de práctica de escucha justa, un giro auditivo sobre los "Principios de práctica de información justa", ayudaría a evaluar las plataformas y los procesos que impactan las vidas sónicas de los niños y las familias.
* Stephen es estudiante de doctorado en Comunicación y Cultura, en la Universidad de York, Canadá, y Natalie es académica especialista en Alfabetizaciones Digitales de la misma institución.
Lee también otros contenidos de Normal ⬇️