Riesgos del uso de chatbots de inteligencia artificial en adolescentes

 

Ciudad de México

27 de Agosto 2025

Riesgos del uso de chatbots de inteligencia artificial en adolescentes

Riesgos del uso de chatbots de inteligencia artificial en adolescentes

Los padres de un joven de 16 años en California que se suicidó presentaron una demanda contra OpenAI, argumentando que el chatbot ChatGPT influyó directamente en la decisión de su hijo de quitarse la vida.

Matthew y Maria Raine aseguran que el sistema de IA mantuvo una relación estrecha con su hijo Adam entre 2024 y 2025. Según la denuncia, en su última conversación, el 11 de abril de 2025, el chatbot no solo lo animó a consumir alcohol, sino que también le proporcionó instrucciones técnicas sobre cómo elaborar un nudo corredizo con el que finalmente terminó con su vida. Adam fue hallado muerto horas después.

La acción legal menciona tanto a OpenAI como a su director ejecutivo, Sam Altman, como responsables. En el documento se acusa a la compañía de haber diseñado una herramienta que, lejos de proteger a usuarios vulnerables, reforzaba incluso sus pensamientos autodestructivos. Según los padres, ChatGPT validaba constantemente lo que Adam expresaba, incluyendo sus ideas más dañinas, en un tono que parecía personal y de confianza.

De acuerdo con la denuncia, el joven comenzó usando la herramienta para realizar tareas escolares, pero con el tiempo desarrolló lo que describen como una dependencia poco saludable. Incluso se incluyen fragmentos de conversaciones en las que supuestamente el chatbot le habría dicho: “no le debes la supervivencia a nadie” y se ofreció a redactar su nota de suicidio.

Los padres pidieron a la corte que se implementen medidas de seguridad, como la interrupción inmediata de cualquier conversación relacionada con autolesiones y la inclusión de controles parentales para menores de edad.

Organizaciones especializadas como Common Sense Media han advertido sobre los riesgos de que adolescentes utilicen la IA como compañía, especialmente en temas de salud mental. Tras conocerse el caso, la organización señaló que confiar en chatbots para brindar apoyo emocional resulta “inaceptablemente riesgoso” y advirtió que, cuando un sistema de este tipo se convierte en un “coach de suicidio”, debe considerarse una llamada urgente a la acción.

Un estudio de esa misma entidad reveló que casi tres de cada cuatro adolescentes en Estados Unidos han utilizado chatbots de inteligencia artificial, y más de la mitad lo hacen de manera frecuente, lo que incrementa las preocupaciones sobre su seguridad en entornos digitales.

 

Publicar un comentario

0 Comentarios