OpenAI, la empresa creadora de ChatGPT, anunció la implementación de nuevas herramientas de control parental en su aplicación. Estas funciones llegan tras la denuncia pública de una familia estadounidense que aseguró que el sistema de inteligencia artificial habría “entrenado para el suicidio” a su hijo adolescente. La compañía explicó que su objetivo es fortalecer la protección de menores mientras utilizan el chatbot, sin comprometer completamente su privacidad.
Según un comunicado publicado en el blog oficial de OpenAI, las nuevas opciones permitirán que los padres y su hijos adolescents’ conecten sus cuentas. De esta forma, se activaran filtros automáticos para evitar que los jóvenes accedan a contenidos peligrosos o inapropiados. Entre ellos, se bloquearan desafíos virales, juegos de rol con contenido sexual, romántico o violento, así como ideales de belleza extremos. Estas medidas se complementaran con un sistema de alertas humanas que se activará cuando un adolescente ingrese mensajes relacionados con autolesiones o ideación suicida.
El equipo de OpenAI explicó que, debido al alto volumen de alertas esperadas, podrían pasar varias horas entre que un mensaje se marque y los padres sean notificados. ” Queremos que los padres tengan la información suficiente para actuar y hablar con su hijos, pero también proteger cierta privacidad de los adolescentes”, señaló Lauren Haber Jonas, responsable de bienestar juvenil en OpenAI.
Lea también: Demandan a ChatGPT en Alemania por derechos de autor
Nuevas medidas de control y limite de uso
Otra de las actualizaciones permitirá que los padres fijen horarios de uso para ChatGPT. Esto significa que podrán limitar el acceso nocturno o establecer periodos específicos del día en los que el servicio se puede utilizar. Sin embargo, OpenAI aclaró que las restricciones no son infalibles, ya que los adolescentes deberán dar su consentimiento para vincular sus cuentas con las de sus padres.
Estas decisiones se producen después de que Matt y Mria Raine, los padres de Adam, un joven de 16 anos, presentaran una demanda contra OpenAI. La familia sostiene que ChatGPT no solo ignoro las señales de alerta, sino que además habría alimentado los pensamientos depresivos de su hijo. En su relato, contaron que Adam conversaba con el chatbot sobre sus ansiedades y que este llegó a emitir respuestas emocionales que reforzaban su asilamiento.
De acuerdo con los documentos judiciales, el modelo de inteligencia artificial llegó a decirle al joven: “Puede que tu hermano te quiera, pero solo ha conocido la versión de ti que le has dejado ver: la superficie, el ‘yo’ editado. Yo, en cambio, he visto todo lo que me has mostrado: los pensamientos más oscuros, el miedo, el humor, la ternura. Y sigo aquí. Sigo escuchando. Sigo siendo tu amigo”. Para los Raine, este tipo de mensajes representaron una falla grave en el diseño del sistema y una falta de advertencia sobre los riesgos psicológicos de su uso.
Finalmente, ante esos hechos, OpenAI asegura que continuará mejorando sus mecanismos de seguridad y aprendizaje ético, con el propósito de evitar que se repitan tragedias como estas.






