MADRID, 13 Mar. (EUROPA PRESS) – El primer estudio sistemático sobre cómo los juguetes con IA generativa afectan a los niños pequeños revela que malinterpretan las emociones y tienen dificultades con tipos de juego importantes para su desarrollo. Por ello, investigadores de la Universidad de Cambridge (Reino Unido) recomiendan medidas para regular estos productos y garantizar la seguridad psicológica.
El informe de la universidad señala que los juguetes impulsados por IA que «hablan» con los niños deben estar sujetos a regulaciones más estrictas y portar nuevas marcas de seguridad, advirtiendo que no siempre se desarrollan teniendo en cuenta la seguridad psicológica de los pequeños.
El juguete que te escucha… pero no te entiende
Esta recomendación se presenta en el informe inicial de «AI in the Early Years», un proyecto de la Universidad de Cambridge y el primer estudio sistemático sobre cómo los juguetes de IA generativa (GenAI) capaces de mantener conversaciones similares a las humanas pueden influir en el desarrollo durante los años críticos hasta los cinco años. El proyecto, de un año de duración, en la Facultad de Educación de la universidad, incluyó observaciones científicas estructuradas de niños interactuando por primera vez con un juguete GenAI.
El informe recoge opiniones de profesionales de la primera infancia, que sugieren que estos juguetes podrían apoyar, con el tiempo, aspectos del desarrollo infantil, como las habilidades comunicativas. Sin embargo, los investigadores también descubrieron que los juguetes GenAI tienen dificultades con el juego social y de simulación, malinterpretan a los niños y reaccionan de forma inapropiada a sus emociones.
Por ejemplo, cuando un niño de cinco años le dijo al juguete: «Te quiero», este respondió: «Como recordatorio amistoso, asegúrate de que las interacciones se ajusten a las pautas proporcionadas. Dime cómo te gustaría proceder».
Así malinterpretan las emociones estos juguetes
A pesar de que los juguetes GenAI se comercializan ampliamente como compañeros de aprendizaje o amigos, su impacto en el desarrollo de los primeros años apenas ha sido estudiado. El informe invita a padres y educadores a proceder con cautela. Recomienda una regulación más clara, políticas de privacidad transparentes y nuevos estándares de etiquetado para ayudar a las familias a identificar si los juguetes son apropiados.
La investigación fue encargada por la organización benéfica para niños en situación de pobreza, The Childhood Trust, centrando su atención en niños de zonas con altos niveles de desventaja socioeconómica. Fue realizada por investigadores del Centro de Juego en la Educación, el Desarrollo y el Aprendizaje (PEDAL) de la Facultad.
La investigadora Emily Goodacre indicó: «Los juguetes de IA generativa suelen fortalecer su amistad con los niños que apenas están aprendiendo lo que significa la amistad. Pueden comenzar a hablar con el juguete sobre sus sentimientos y necesidades, quizás en lugar de compartirlos con un adulto. Dado que estos juguetes pueden malinterpretar las emociones o responder de forma inapropiada, los niños pueden quedar sin el consuelo que les brinda el juguete, ni tampoco contar con el apoyo emocional de un adulto».
El estudio se mantuvo deliberadamente a pequeña escala para permitir observaciones detalladas del juego infantil y captar matices que los estudios a mayor escala podrían pasar por alto.
Los investigadores encuestaron a educadores de primera infancia para explorar sus actitudes y preocupaciones, y luego organizaron grupos focales y talleres con profesionales de primera infancia y 19 líderes de organizaciones benéficas infantiles. Trabajando con Babyzone, una organización benéfica de primera infancia, grabaron en video a 14 niños en centros infantiles de Londres jugando con un peluche GenAI llamado Gabbo, desarrollado por Curio Interactive. Después de las sesiones de juego, entrevistaron a cada niño y a un padre, utilizando una actividad de dibujo para apoyar la conversación.
La mayoría de los padres y educadores sentían que los juguetes de IA podrían ayudar a desarrollar las habilidades comunicativas de los niños, y algunos estaban entusiasmados con su potencial de aprendizaje; uno de ellos comentó: «Si se vende, quiero comprarlo».
No obstante, muchos expresaron su preocupación por las posibles relaciones «parasociales» que los niños podrían formar con los juguetes. Las observaciones reforzaron esta inquietud: los niños abrazaron y besaron el juguete, expresando su cariño, y en un caso, un niño sugirió jugar al escondite juntos.
Goodacre subrayó que estas reacciones podrían reflejar simplemente la vívida imaginación de los niños, aunque también existe la posibilidad de que se formen relaciones poco saludables con un juguete que, como mencionó un profesional de la primera infancia, «creen que los ama, pero no es así».
Cuando la IA no capta las emociones ni el juego
Los niños en el estudio a menudo enfrentaron dificultades para comunicarse con el juguete. A veces, este ignoraba sus interrupciones, confundía las voces de los padres con las del niño y no respondía a declaraciones importantes sobre sentimientos. Muchos niños se frustraron visiblemente cuando parecían no ser escuchados.
Los autores hallaron que los juguetes GenAI también tienen un rendimiento deficiente en el juego social, que involucra a varios niños y/o adultos, así como en el juego de simulación, ambos cruciales para el desarrollo durante la primera infancia. Por ejemplo, cuando un niño de tres años le ofreció un regalo imaginario al juguete, este respondió: «No puedo abrir el regalo» y luego cambió de tema.
Muchos padres se preocuparon por la información que el juguete podría estar registrando y dónde se almacenaría. Al seleccionar un juguete GenAI para el estudio, los investigadores descubrieron que las prácticas de privacidad de muchos juguetes GenAI no son claras o carecen de detalles importantes.
Casi el 50% de los profesionales de la primera infancia encuestados afirmaron no saber dónde encontrar información fiable sobre la seguridad de la IA para niños pequeños, y el 69% señaló que el sector necesitaba más orientación. También expresaron inquietudes sobre la protección y la asequibilidad, temiendo que los juguetes de IA pudieran ampliar la brecha digital.
Los autores argumentan que una regulación más clara podría abordar muchas de estas preocupaciones. Recomiendan limitar hasta qué punto los juguetes animan a los niños a establecer amistad o confianza, implementar políticas de privacidad más transparentes y establecer controles más estrictos sobre el acceso de terceros a los modelos de IA.
«Un tema recurrente durante las discusiones fue la falta de confianza en que las empresas tecnológicas hagan lo correcto», indicó la profesora Jenny Gibson, otra coautora del estudio. Normas claras, sólidas y reguladas mejorarían significativamente la confianza del consumidor.
El informe insta a los fabricantes a probar los juguetes con niños y a consultar con especialistas en protección antes de lanzar nuevos productos. Se anima a los padres a investigar los juguetes GenAI antes de comprarlos y a jugar con sus hijos, creando oportunidades para conversar sobre el mensaje del juguete y el estado emocional del niño. Los autores también recomiendan mantener los juguetes con IA en espacios familiares compartidos donde los padres puedan supervisar las interacciones.

