Con ChatGPT nos estamos dando cuenta de algo preocupante: no sabemos si tu historial es tuyo, de OpenAI o del Gobierno

Título: Con ChatGPT nos estamos dando cuenta de algo preocupante: no sabemos si tu historial es tuyo, de OpenAI o del Gobierno

Contenido:
Javier Pastor
Javier Pastor
La justicia de Estados Unidos está generando inquietudes significativas respecto a la propiedad de los datos producidos a través de ChatGPT. En un esfuerzo por obligar a OpenAI a conservar de manera indefinida todos los registros de conversaciones de los usuarios, surge una pregunta crucial: ¿a quién pertenecen realmente esos datos? Además, se exige que se mantengan los chats que los usuarios pensaban haber eliminado.
El caso entre The New York Times y OpenAI se complica. La situación legal actual es el resultado de un prolongado proceso que enfrenta al renombrado periódico The New York Times con la empresa de inteligencia artificial OpenAI. Este litigio se ha prolongado por 17 meses. El argumento inicial de NYT sostenía que OpenAI había entrenado sus modelos utilizando contenidos del periódico, que aparecían en las respuestas a los usuarios. No obstante, la situación ha evolucionado.
Atención con el borrado de chats. En respuesta a una reciente solicitud de NYT, la juez Ona Wang emitió una orden que obliga a OpenAI a preservar indefinidamente todos los registros relevantes, incluyendo los chats temporales y la salida de texto generada por la API utilizada por los usuarios de pago. Anteriormente, la política de retención de datos de OpenAI establecía un límite de 30 días para la conservación de las conversaciones, tras los cuales se eliminaban automáticamente.
Preocupaciones sobre muros de pago. Los temores de NYT y otros medios se centran en que los usuarios podrían estar utilizando ChatGPT para eludir los muros de pago, lo que podría llevarles a borrar sus búsquedas para ocultar su actividad. Esta afirmación fue expuesta por OpenAI durante el proceso judicial. Sin embargo, los demandantes han señalado la falta de pruebas que respalden esta afirmación, dado que OpenAI solo ha compartido muestras de registros de chats que los usuarios habían consentido conservar.
OpenAI presenta su apelación. En su respuesta oficial a las demandas de datos del NYT, OpenAI declaró: “Creemos firmemente que se trata de una extralimitación. Esto pone en peligro la privacidad de los usuarios sin resolver realmente la demanda. Por ello, nos oponemos”. Los representantes de la empresa han solicitado al juez que reconsidere la orden, argumentando que “la retención indefinida de datos de usuario viola las normas de la industria y nuestras propias políticas”.
Datos afectados por la orden. La exigencia judicial es extensa, pero hay detalles que aclaran a quién afecta y a quién no:
Enmienda ZDR. La “enmienda ZDR” se refiere a la política de no retención de datos (Zero Data Retention), que asegura que no se registran las entradas de los usuarios ni se utiliza su información para entrenar modelos. Esta gestión de datos es particularmente relevante en el contexto actual.

Editado con FGJ CONTENT REWRITER

Derechos Reservados FGJ MULTIMEDIOS 2024