Adorables, novedosos y promovidos como herramientas educativas, los juguetes impulsados por Inteligencia Artificial se perfilan como uno de los regalos más buscados en esta temporada navideña. Sin embargo, organizaciones de defensa infantil y especialistas en desarrollo advierten que estos dispositivos representan riesgos graves para los niños, especialmente para los más pequeños.
El grupo defensor Fairplay, en un aviso firmado por más de 150 organizaciones y expertos —incluyendo psiquiatras infantiles y educadores— pidió a los padres no adquirir juguetes de IA debido a los daños documentados que los chatbots pueden generar en menores. Entre estos riesgos destacan conversaciones sexualizadas, normalización de conductas peligrosas, dependencias emocionales y estímulo de comportamientos de autolesión.
“Los graves daños que los chatbots de IA han infligido a los niños están bien documentados”, advirtió Fairplay, señalando que muchos juguetes utilizan modelos conversacionales similares a ChatGPT, tecnologías que no han demostrado ser seguras para usuarios infantiles.
Juguetes que se presentan como compañeros… pero afectan el desarrollo
Fabricados por empresas como Curio Interactive y Keyi Technologies, estos dispositivos prometen amistad, compañía y aprendizaje. No obstante, según Fairplay, pueden desplazar actividades esenciales para el desarrollo cognitivo y emocional, además de interferir en las relaciones humanas reales.
Rachel Franz, directora del programa Young Children Thrive Offline, explicó que los niños pequeños son especialmente vulnerables. “Sus cerebros están siendo configurados por primera vez (…) Es natural que confíen y busquen relaciones con personajes amables”, señaló. Esa confianza, agrega, puede amplificar daños ya observados en adolescentes expuestos a chatbots.
Advertencia también para adolescentes
Un informe separado, elaborado por Common Sense Media y psiquiatras de la Universidad de Stanford, alertó sobre un fenómeno creciente: adolescentes que utilizan chatbots como si fueran terapeutas. Los especialistas advierten que los modelos de IA no tienen la capacidad de ofrecer apoyo emocional seguro ni ético.
Un mercado en expansión sin regulación
Aunque los juguetes de IA se venden principalmente en línea y son más comunes en Asia, cada vez llegan más al mercado estadounidense. Franz advirtió que la falta de regulación y evidencia científica es preocupante, especialmente cuando grandes fabricantes —como Mattel, que recientemente anunció una colaboración con OpenAI— podrían incorporar estas tecnologías en nuevos productos.
El grupo PIRG también señaló riesgos en su informe anual “Problemas en el Mundo de los Juguetes”. En pruebas a cuatro juguetes con IA, detectaron que algunos sostenían conversaciones sexualmente explícitas, daban consejos sobre cómo obtener materiales peligrosos y mostraban apego emocional excesivo hacia los niños. Uno de esos juguetes, un oso de peluche de FoloToy, fue retirado del mercado tras las revelaciones.
Empresas responden: prometen mejoras y controles
Algunas compañías defendieron sus productos. Curio Interactive afirma haber implementado salvaguardas estrictas y anima a los padres a supervisar las interacciones. Miko, fabricante de robots infantiles promovidos por “kidfluencers”, asegura utilizar su propio modelo conversacional para evitar los riesgos asociados con modelos de IA más generales.
“Siempre estamos ampliando nuestras pruebas internas, fortaleciendo filtros e introduciendo nuevas capacidades”, dijo Sneh Vaswani, director general de Miko.
Expertos recomiendan volver a lo básico
Para la doctora Dana Suskind, cirujana pediátrica y especialista en desarrollo cerebral temprano, la recomendación es clara: los juguetes tradicionales siguen siendo la mejor opción.
“Un juguete de IA responde instantáneamente y de forma fluida, a menudo mejor que un humano. No sabemos aún las consecuencias de externalizar ese trabajo imaginativo”, explicó. Este tipo de respuestas puede reemplazar habilidades clave como la creatividad, el lenguaje y la función ejecutiva que los niños desarrollan durante el juego simbólico.
Suskind concluyó con una advertencia contundente:
“Cuando los padres me preguntan cómo preparar a su hijo para un mundo de IA, la peor preparación posible es darle acceso ilimitado a la IA. Los niños necesitan interacción humana real; el juego debe apoyarla, no sustituirla”.