Becas Empleo Idiomas y Comunicación Mundo educativo Orientación académica

Encuentra tu curso ideal

9%

¿Qué quieres estudiar?

Expertos de Cambridge tildan de “urgente” una IA segura para niños: hay una «brecha de empatía»

Expertos de Cambridge tildan de “urgente” una IA segura para niños: hay una "brecha de empatía"

Niñas jugando con la tablet. | Foto de freepik

Científicos de la Universidad de Cambridge han alertado que los chatbots de Inteligencia Artificial muestran con frecuencia signos de una “brecha de empatía” que los niños y jóvenes pasan por alto frecuentemente, poniéndoles en riesgo. Por ello, los expertos consideran necesario priorizar un diseño de IA que tenga más en cuenta las necesidades de los niños, población susceptible de tratar a los chatbots como confidentes cuasi humanos. Esto implica que cuando la interacción con la tecnología no responde a sus necesidades, se pone a esta población en riesgo.

“Los niños son probablemente los actores más ignorados de la IA».

Riesgos potenciales

El estudio investiga esta brecha en la comprensión con casos recientes, en los que las interacciones con IA llevaron a situaciones potencialmente peligrosas para los usuarios más jóvenes. Entre ellos, un incidente ocurrido en 2021, cuando Alexa, el asistente de voz de IA de Amazon, le indicó a un niño de 10 años que tocara un enchufe eléctrico con una moneda. Y el año pasado, My AI, de Snapchat, dio a investigadores adultos que se hicieron pasar por una niña de 13 años consejos sobre cómo perder la virginidad con un joven de 31 años.

Más medidas de seguridad

Tras estos sucesos, ambas empresas implementaron medidas de seguridad, pero el estudio señala que también es necesario ser proactivos a largo plazo para garantizar que la IA sea segura para los niños. En este sentido, el estudio ofrece un marco con 28 elementos para ayudar a empresas, docentes, padres, informáticos y políticos a pensar sobre cómo mantener seguros a los usuarios más jóvenes cuando “hablan” con los chatbots de IA.

La Dra. Nomisha Kurian, directora de la investigación, ha apuntado que “los niños son probablemente los actores más ignorados de la IA. Muy pocos desarrolladores y empresas tienen actualmente políticas bien establecidas sobre la IA segura para ellos. Esto es comprensible porque la gente ha comenzado a utilizar esta tecnología a gran escala de forma gratuita hace poco. Pero ahora que lo hacen, la seguridad infantil debería orientar todo el ciclo de diseño para reducir el riesgo de que se produzcan incidentes peligrosos».

Hay una «brecha de empatía»

El estudio también resalta que, aunque los chatbots tienen habilidades lingüísticas, pueden manejar de forma incorrecta los aspectos abstractos o emocionales de una conversación. Un problema que la investigadora califica como “brecha de empatía”.

Y a pesar de esto, los niños son mucho más propensos que los adultos a tratar a los chatbots como si fueran humanos. De hecho, una investigación reciente descubrió que los niños revelan más sobre su propia salud mental a un robot de apariencia amigable que a un adulto. Para un niño, sin embargo, es muy difícil trazar un límite racional entre algo que suena humano y la realidad de que puede no ser capaz de formar un vínculo emocional correcto.

«La cuestión no es prohibir la IA, sino cómo hacerla segura».

Los investigadores señalan que esta relación puede resultar confusa y angustiante para los niños, que pueden confiar en un chatbot como en un amigo, a lo que hay que añadir que el uso que los niños hacen de los chatbots no se supervisa convenientemente. Un reciente estudio señala que la mitad de los estudiantes de entre 12 y 18 años han utilizado Chat GPT para sus deberes escolares, pero solo el 26% de los padres lo sabe.

En este sentido, se apunta que “la IA puede ser un aliado increíble para los niños cuando se diseña teniendo en cuenta sus necesidades. La cuestión no es prohibir la IA, sino cómo hacerla segura. No podemos depender únicamente de los niños pequeños para que nos cuenten sus experiencias negativas después de que hayan ocurrido. Es necesario un enfoque más proactivo”.

Salir de la versión móvil