La justicia de EE. UU. impide a OpenAI borrar los registros de ChatGPT durante el ‘caso Times’
Tras la demanda interpuesta por The New York Times contra OpenAI por presunta infracción de derechos de autor, un juez federal de Estados Unidos ha ordenado a la compañía dejar de eliminar los datos generados por su modelo ChatGPT, incluidos los registros de conversaciones con usuarios.
La decisión pretende preservar pruebas potencialmente relevantes, en un caso donde el periódico acusa a OpenAI de haber utilizado “millones” de artículos del Times para entrenar sus modelos de IA, lo que habría derivado en una competencia directa y no autorizada con los contenidos del medio.
Según el abogado especializado en privacidad Jacob Flowers, del bufete Campbell Teague, la orden judicial implica que OpenAI deberá conservar registros que normalmente permitiría borrar, incluso aquellos eliminados por los propios usuarios o generados en sesiones temporales.
“Esto significa que, aunque un usuario elimine su conversación o utilice el modo temporal de ChatGPT, esos datos podrían seguir disponibles para los abogados del Times”, explicaba Flowers en declaraciones a Adweek.
OpenAI presentó una moción de reconsideración el pasado 15 de mayo, argumentando que la retención masiva de logs generados por la IA excedía lo razonable y que gran parte de esa información sería irrelevante para el caso. Sin embargo, el juez rechazó la petición y ordenó que ambas partes se reúnan hoy 27 de mayo ante un magistrado para definir un marco adecuado de retención de datos.
“Es preocupante que el tribunal no haya exigido a los demandantes demostrar que esta retención masiva contribuiría de forma significativa al juicio. Se ha pasado por alto la obligación contractual de respetar la privacidad de los usuarios”, criticaba Flowers.
Implicaciones más allá del juicio
Aunque la orden no infringe legislaciones como el California Consumer Privacy Act (CCPA) ni el Reglamento General de Protección de Datos (GDPR) europeo (ambas con excepciones en procesos legales), los expertos advierten que la decisión podría erosionar la confianza de los usuarios en el uso de estas herramientas.
“OpenAI deberá conservar muchos más datos de los que normalmente mantendría”, señalaba Daniel Goldberg, abogado en Frankfurt Kurnit Klein & Selz, al citado medio. “Eso no solo incrementa el riesgo de filtraciones o ciberataques, sino que puede afectar negativamente la percepción de privacidad entre los usuarios”, añadía el profesional.
Goldberg también llamó la atención sobre otras posibles consecuencias, como el mayor consumo de energía y espacio de almacenamiento asociado a esta obligación, impactos que, según él, el tribunal no habría considerado a fondo.
Esta orden judicial llega en un momento delicado para la industria tecnológica, donde gigantes como Meta, Amazon y Google parecen estar replanteándose sus compromisos de privacidad. Meta ha retomado su programa de reconocimiento facial, Google ha descartado su iniciativa de eliminar cookies mediante su “Privacy Sandbox”, y Amazon ha eliminado la opción para que los usuarios de Alexa impidan que sus datos sean utilizados para entrenar modelos de IA, según The Information.
La combinación de estos movimientos y decisiones judiciales plantea interrogantes sobre el futuro de la privacidad digital, especialmente en un contexto donde los modelos de IA requieren (y generan) cantidades masivas de datos. “Este tipo de resoluciones va a generar inquietud sobre qué significa realmente trabajar con grandes proveedores tecnológicos”, concluía Goldberg.