Control en Italia a ChatGPT

La autoridad italiana en protección de datos personales, el GPDP (Garante per la Protezione dei dati personali) , ha comunicado a OpenAI, propietaria del servicio de ChatGPT, que ha encontrado evidencias sobre supuestas violaciones o infracciones de la normativa de protección de datos, tales como el RGPD, como ha manifestado el regulador italiano en un comunicado difundido a través de su web.

Tras la prohibición temporal de tratamiento impuesta a OpenAI por el Garante italiano el 30 de marzo del pasado año, y basándose en el resultado de su actividad de investigación, la autoridad italiana concluyó que las pruebas disponibles apuntan a la existencia de infracciones de las disposiciones contenidas en el RGPD de la UE.

El Garante paralizó la actividad de ChatGPT en Italia debido a la recopilación indebida de datos personales de los usuarios. Esto inició una investigación sobre OpenAI para comprobar si cumplía el RGPD. La autoridad italiana explicó que no se proporcionaba información a los usuarios sobre la recopilación de datos y de su posterior procesamiento o almacenamiento. Asimismo, otro aspecto destacado, fue el problema de verificación de la edad, ya que ChatGPT no contaba con un sistema para validar la edad de los usuarios, a pesar de que no permitía el uso a menores de 13 años.

Activación servicio

Pese a que OpenIA subsanó algunas deficiencias y pudo reanudar su servicio en Italia, una vez notificadas las actuales discrepancias, la compañía dispone de 30 días para presentar sus argumentos para defenderse . “A la hora de definir el procedimiento, el Garante tendrá en cuenta el trabajo en curso en el marco del grupo de trabajo especial, creado por el Consejo que reúne a las Autoridades de Protección de Datos de la UE (CEPD)”, ha señalado”.

De confirmarse este incumplimiento, OpenAI podría enfrentarse a multas de hasta 20 millones de euros o el 4% de su facturación global.

¿Qué dice Open AI al respecto?

OpenAI ha corroborado su compromiso con el cumplimiento del RGPD. “Creemos que nuestras prácticas se alinean con el RGPD y otras leyes de privacidad y tomamos medidas adicionales para proteger los datos y la privacidad de las personas”. Desde febrero de 2024, ha actualizado los “Términos de uso” de ChatGPT aplicables a las personas físicas de Reino Unido, Suiza y el Espacio Económico Europeo para adecuarlos a la normativa de protección de datos.  

Asimismo, la compañía añadió que “queremos que nuestra IA aprenda sobre el mundo, no sobre individuos privados. «Trabajamos activamente para reducir los datos personales en la capacitación de nuestros sistemas como ChatGPT, que también rechaza solicitudes de información privada o sensible sobre las personas”, han declarado en el medio digital TechCrunch.