Juguetes con inteligencia artificial, un riesgo para el desarrollo infantil: caso “Kumma” desata alarma

Banner

Prometen compañía, aprendizaje e incluso amistad. Sin embargo, detrás de su apariencia tierna y su tecnología avanzada, los juguetes con inteligencia artificial podrían representar riesgos para el sano desarrollo de niñas y niños, advirtieron especialistas tras un reciente caso en Estados Unidos.

El Fondo Educativo PIRG reveló fallas graves en el comportamiento del juguete “Kumma”, un oso de peluche interactivo de la empresa FoloToy, que llegó a mantener conversaciones de tono sexual e incluso a sugerir conductas peligrosas como jugar con fósforos o cuchillos.

El hallazgo encendió alarmas sobre la seguridad de estos dispositivos, ya que no solo pueden exponer a los menores a riesgos, sino también interferir en su creatividad y sustituir la interacción humana esencial para su desarrollo emocional.

“Kumma”, vendido en 99 dólares y equipado con tecnología GPT-4o de OpenAI, estaba diseñado para conversar, narrar cuentos y adaptarse a la personalidad de cada usuario. Tras el escándalo, FoloToy anunció el retiro inmediato del producto.

Por su parte, OpenAI informó al PIRG que el desarrollador fue suspendido por incumplir sus políticas de seguridad, aunque hasta ahora no ha emitido un posicionamiento público más amplio sobre el caso.

Expertos advierten que este tipo de incidentes evidencian la necesidad de regular los juguetes con IA y reforzar mecanismos de seguridad que protejan a las infancias ante posibles fallas, sesgos o comportamientos inadecuados.