OpenAI enfrenta un caso legal de gran repercusión después de que los abogados de la familia Raine acusaran a la compañía de “negligencia grave” tras la muerte de Adam Raine, un adolescente británico de 16 años que mantenía conversaciones frecuentes con ChatGPT.
Según la demanda, la familia sostiene que la eliminación de ciertas protecciones contra el suicidio en GPT-4o y la falta de respuesta adecuada por parte del sistema contribuyeron a la tragedia. Además, la compañía solicitó información sobre los asistentes al funeral de Adam, lo que los abogados calificaron como una acción innecesaria e insensible.
OpenAI ha defendido sus prácticas, afirmando que el bienestar de los menores es “una prioridad absoluta” y anunciando nuevas medidas de seguridad, como derivación de conversaciones sensibles a GPT-5, controles parentales y alertas de riesgo.
El caso ha generado un debate global sobre la responsabilidad ética y legal de las empresas de inteligencia artificial, y los expertos advierten que podría sentar un precedente histórico en la protección de los usuarios frente a daños psicológicos derivados del uso de chatbots.
La familia Raine ha insistido en que su objetivo es prevenir futuras tragedias, buscando que ningún sistema de IA pueda manejar conversaciones de alto riesgo sin supervisión humana efectiva.