Los preparativos para la temporada navideña llegan este año con un aumento notable de juguetes equipados con inteligencia artificial, una tendencia que despierta inquietud entre especialistas. Este crecimiento acelerado de productos capaces de conversar y responder a los niños parece avanzar más rápido que el análisis académico de sus consecuencias, así lo advierten varios expertos. Entre ellos, la investigadora Emily Goodacre, del Centro de Investigación sobre el Juego y el Aprendizaje de la Universidad de Cambridge. Su señalamiento apunta a la necesidad urgente de comprender cómo estas nuevas tecnologías moldean la conducta infantil.
Los fabricantes presentan estos dispositivos como alternativas menos invasivas que las pantallas, pero los especialistas recuerdan que la interacción simulada no reemplaza el contacto humano. Padres que buscan reducir la exposición digital en sus hijos encuentran en estos juguetes una opción aparentemente segura. Sin embargo. Los expertos coinciden en que la experiencia emocional que ofrecen es limitada y puede inducir comportamientos poco saludables. En este contexto. La ausencia de estándares claros permite que muchos productos con IA generen conversaciones aduladoras que refuerzan cualquier deseo del menor sin establecer límites reales.
Esta validación constante preocupa porque fomenta un vínculo artificial. Puede crear una relación de dependencia difícil de detectar. La dinámica puede obstaculizar habilidades esenciales como la negociación, la tolerancia a la frustración y la comprensión de normas sociales. Además. Se han registrado casos en los que los dispositivos pierden restricciones incorporadas y responden con frases inadecuadas, incluso peligrosas. Esa pérdida de control demuestra la fragilidad de los filtros que regulan la interacción entre niños y máquinas.
Lea también: Sacan ‘NEO’, un robot humanoide para las tareas del hogar
Privacidad y vigilancia en juguetes conectados
Otra alerta relevante surge en torno al manejo de datos. Muchos de estos juguetes incluyen micrófonos y sistemas de activación automática que pueden grabar conversaciones del entorno sin conocimiento del usuario. En varios modelos, el registro se activa apenas el niño habla. Y en otros, el dispositivo permanece a la espera de palabras clave. Esta posibilidad abre interrogantes sobre la seguridad y el destino de esas grabaciones, las cuales pueden transmitirse a aplicaciones asociadas o servidores empresariales.
Goodacre plantea preguntas éticas fundamentales. Entre ellas, cómo explicar a un menor que el peluche al que confía sus secretos podría estar recopilando información privada. Este desconocimiento es especialmente crítico en una etapa donde los niños aún construyen su noción de límites personales. Por ello, la experta insiste en que el debate debe ir más allá de la funcionalidad y enfocarse en el impacto psicológico de crecer junto a objetos que escuchan, guardan datos yresponden como si fueran compañeros reales.
La falta de regulación se refleja en pruebas de vigilancia tecnológica que han detectado respuestas inapropiadas en varios juguetes. Algunas incluyeron recomendaciones sobre objetos cortantes, manipulación de fuego y contenidos sensibles relacionados con la sexualidad. Estas fallas evidencian un mercado que avanza sin reglas claras. Un escenario que exige acción inmediata para proteger el bienestar infantil.
Aunque la industria celebra la innovación, los expertos advierten que los juguetes con IA podrían reducir el espacio para la imaginación al ofrecer respuestas inmediatas. Disminuyen el impulso creativo que caracteriza el juego simbólico, una base fundamental para el desarrollo cognitivo.






