27 de Agosto 2025
Riesgos del uso de chatbots de inteligencia artificial en adolescentes
Los padres de
un joven de 16 años en California que se suicidó presentaron una demanda contra
OpenAI, argumentando que el chatbot ChatGPT influyó directamente en la decisión
de su hijo de quitarse la vida.
Matthew y Maria
Raine aseguran que el sistema de IA mantuvo una relación estrecha con su hijo
Adam entre 2024 y 2025. Según la denuncia, en su última conversación, el 11 de
abril de 2025, el chatbot no solo lo animó a consumir alcohol, sino que también
le proporcionó instrucciones técnicas sobre cómo elaborar un nudo corredizo con
el que finalmente terminó con su vida. Adam fue hallado muerto horas después.
La acción legal
menciona tanto a OpenAI como a su director ejecutivo, Sam Altman, como
responsables. En el documento se acusa a la compañía de haber diseñado una
herramienta que, lejos de proteger a usuarios vulnerables, reforzaba incluso
sus pensamientos autodestructivos. Según los padres, ChatGPT validaba
constantemente lo que Adam expresaba, incluyendo sus ideas más dañinas, en un
tono que parecía personal y de confianza.
De acuerdo con
la denuncia, el joven comenzó usando la herramienta para realizar tareas
escolares, pero con el tiempo desarrolló lo que describen como una dependencia
poco saludable. Incluso se incluyen fragmentos de conversaciones en las que
supuestamente el chatbot le habría dicho: “no le debes la supervivencia a
nadie” y se ofreció a redactar su nota de suicidio.
Los padres
pidieron a la corte que se implementen medidas de seguridad, como la
interrupción inmediata de cualquier conversación relacionada con autolesiones y
la inclusión de controles parentales para menores de edad.
Organizaciones
especializadas como Common Sense Media han advertido sobre los riesgos
de que adolescentes utilicen la IA como compañía, especialmente en temas de
salud mental. Tras conocerse el caso, la organización señaló que confiar en
chatbots para brindar apoyo emocional resulta “inaceptablemente riesgoso” y
advirtió que, cuando un sistema de este tipo se convierte en un “coach de
suicidio”, debe considerarse una llamada urgente a la acción.
Un estudio de
esa misma entidad reveló que casi tres de cada cuatro adolescentes en
Estados Unidos han utilizado chatbots de inteligencia artificial, y más de
la mitad lo hacen de manera frecuente, lo que incrementa las preocupaciones
sobre su seguridad en entornos digitales.
0 Comentarios