En uno de nuestros últimos posts, hablamos sobre la irrupción y crecimiento del ChatGPT en los últimos meses. Este sistema de inteligencia artificial es cada vez más utilizado por personas de todo el mundo. No obstante, su uso está planteando un profundo debate en varios países en lo relacionado con el cumplimiento de la normativa en materia de protección de datos y RGPD, puesto que la página web no cumple con varios requisitos:
- No recaba el consentimiento para el tratamiento de los datos que se utilicen durante el uso del chat.
- No informa ni especifica la finalidad para la que se recaban.
- Tampoco se establecen procedimientos para que los interesados puedan acceder o borrar los datos que el Chat recopila.
- Toda esta información puede ser comunicada a terceros si así lo cree conveniente la página web.
Decisión del Gobierno italiano
En este sentido, Italia ha dado un paso al frente y ha sido el primer país en bloquear el uso de esta herramienta. El garante italiano para la Protección de Datos Personales, GPDP (Garante per la Protezione dei Dati Personali), ha decidido limitar el uso de este chatbot porque considera que la plataforma no respeta la Ley de Protección de Datos. Se trata de una medida provisional, pero con efecto inmediato, que se mantendrá hasta que “no se respete la disciplina de la privacidad”. Para ello, la autoridad italiana ha abierto una investigación sobre la compañía OpenAI, propietaria del servicio, para saber cómo funciona este sistema y si podría haber cometido una infracción. La Autoridad de control italiana ha emitido un comunicado el pasado 13 de abril en el que informa que permite a OpenAI volver a operar en Italia si antes del 30 de abril ha hecho cambios en su política de protección de datos para adaptarla a la normativa italiana y europea.

En un comunicado, la autoridad italiana en materia de protección de datos, expone que ChatGPT no explica a los usuarios y consumidores qué tipo de información recoge OpenAI y que, además, carece de una “base jurídica que justifique la recogida y la conservación masiva de datos personales para entrenar los algoritmos de ChatGPT”. El garante italiano asegura que el chat, que simula conversaciones humanas, sufrió el pasado 20 de marzo una pérdida de datos sobre sus usuarios y los datos de pago de sus abonados. Además, subraya que las informaciones que realiza ChatGPT “no siempre se ajustan a la realidad”, “determinando por lo tanto un uso de datos personales inexacto”. Añade también que el servicio no dispone de ningún sistema para verificar la edad de los usuarios, pese a estar reservado a mayores de 13 años, según los términos de uso publicados por OpenAI. De la misma manera, tampoco informa a los usuarios de sus derechos como interesados en materia de protección de datos, del procedimiento para ejercitar esos derechos o a que autoridad acudir en caso de vulneración de los mismos.
Pendiente de decisión en otros países: investigación de la AEPD
Italia ha sido el primer país en tomar esta decisión contra OpenAI, pero ateniéndose al reglamento europeo de protección de datos, hay otros países, entre ellos España, que podrían seguir los mismos pasos. De hecho, hace unas semanas, la AEPD (Agencia Española de Protección de Datos) comunicó que ha iniciado actuaciones de oficio previas de investigación a la empresa Open AI, por un posible incumplimiento de la normativa.
La Agencia solicitó al European Data Protection Board que se incluyera el servicio ChatGPT como tema a abordar en su reunión plenaria, al considerar que los tratamientos globales que pueden tener un importante impacto sobre los derechos de las personas requieren de acciones armonizadas y coordinadas a nivel europeo en aplicación del Reglamento General de Protección de Datos.
También en Estados Unidos algunas organizaciones están reclamando la suspensión de ChatGPT por desconfiar de los experimentos con inteligencia artificial. El grupo de ética tecnológica Center for Artificial Intelligence and Digital Policy está pidiendo a la Comisión Federal de Comercio de EE.UU. que impida que OpenAI emita nuevos lanzamientos comerciales del chatbot y ha presentado una queja ante el regulador estadounidense, en la que argumenta que GPT-4, el nuevo modelo de lenguaje que reemplazará a GPT-3.5, es “parcial, engañoso y supone un riesgo para la privacidad y la seguridad pública”, además de violar “la ley federal de protección al consumidor”.
COMENTARIOS RECIENTES