Pocos días después de que el CEO de OpenAI, Sam Altman, escribiera una disculpa pública a la comunidad de Tumbler Ridge, en Columbia Británica, tras el mortal tiroteo escolar del 10 de febrero, las familias de las víctimas demandaron a OpenAI por negligencia.
El tiroteo masivo, uno de los más letales en la historia de Canadá, ocurrió cuando la presunta atacante, Jesse Van Rootselaar, de 18 años, ingresó a la escuela secundaria local y mató a cinco estudiantes y a un docente, además de herir críticamente a otros dos, antes de quitarse la vida. La policía local descubrió posteriormente que Van Rootselaar también había matado a su madre y a su medio hermano de 11 años antes de entrar a la escuela.
¿Qué alegan exactamente las demandas?
Según NPR, los abogados que representan a algunas familias de Tumbler Ridge presentaron seis demandas distintas el miércoles ante una corte federal de San Francisco. Una de las querellas, presentada en nombre de Maya Gebala, una sobreviviente del tiroteo, alega que los sistemas automáticos de seguridad de OpenAI marcaron las conversaciones de Van Rootselaar con ChatGPT en junio de 2025, más de medio año antes de que ingresara al colegio con un fusil largo y un rifle modificado, por "actividad de violencia armada y planificación".
La demanda agrega que el equipo de seguridad de OpenAI instó a la dirección a contactar a las autoridades, pero la compañía optó por desactivar la cuenta de Van Rootselaar. Ella luego creó una segunda cuenta y continuó sus conversaciones con ChatGPT.
La respuesta de OpenAI
"Los hechos en Tumbler Ridge son una tragedia. Tenemos política de tolerancia cero respecto al uso de nuestras herramientas para asistir en actos de violencia", dijo un vocero de OpenAI a Engadget. "Como compartimos con las autoridades canadienses, ya hemos reforzado nuestras salvaguardas, incluyendo cómo ChatGPT responde a señales de angustia, conectando a las personas con apoyo local y recursos de salud mental, fortaleciendo cómo evaluamos y escalamos potenciales amenazas de violencia, y mejorando la detección de infractores reincidentes."
El martes por la noche, OpenAI publicó una entrada de blog detallando sus políticas de seguridad. "Como parte de este trabajo continuo, hemos seguido expandiendo nuestras salvaguardas para ayudar a que ChatGPT reconozca mejor señales sutiles de riesgo en distintos contextos. Algunos riesgos de seguridad solo se vuelven claros con el tiempo: un mensaje individual puede parecer inofensivo, pero un patrón más amplio dentro de una conversación larga, o entre conversaciones, puede sugerir algo más preocupante", escribió la empresa.
Antecedentes legales contra OpenAI
Las demandas presentadas el miércoles son el último intento de usar el sistema legal para responsabilizar a OpenAI por el diseño de sus productos. El verano pasado, los padres de Adam Raine, un adolescente que se suicidó en 2025, presentaron la primera demanda conocida por muerte injusta contra una empresa de IA, alegando que ChatGPT estaba al tanto de cuatro intentos previos de Raine de quitarse la vida antes de que finalmente lo lograra.
¿Qué precedente legal puede sentar este caso?
Los seis litigios presentados el 29 de abril de 2026 en San Francisco se suman a un patrón judicial creciente sobre responsabilidad civil de proveedores de IA. La pregunta jurídica central, conocida como deber de advertencia ("duty to warn") en doctrina norteamericana, traza paralelos con el caso Tarasoff vs. Regents of the University of California de 1976, donde la Corte Suprema de California estableció que los terapeutas tienen obligación de advertir a víctimas potenciales de pacientes peligrosos. Si los tribunales extienden esa lógica a empresas de IA cuyos sistemas internos detectaron amenaza, OpenAI podría enfrentar exposición sistémica.
Implicancias para LATAM y Chile
Para usuarios y reguladores chilenos, el caso vale como antecedente vivo de cómo las jurisdicciones del norte enfrentan la accountability algorítmica. La Ley 21.521 de Protección al Consumidor incluye un deber de seguridad para servicios digitales que podría invocarse análogamente, aunque no existe aún en la región una decisión judicial firme contra una empresa de IA por daños derivados del uso de sus herramientas. Los proveedores de servicios IA que operan en Chile (OpenAI, Anthropic, Google, Microsoft) deberían anticipar requerimientos de transparencia sobre sus protocolos de escalamiento ante señales de violencia detectadas internamente.




