El organismo de control de la privacidad de España dice que también está investigando ChatGPT
3 min readLa autoridad de protección de datos de España, AEPD, ha seguido el ejemplo de Italia y ha anunciado una investigación preliminar sobre OpenAI, el fabricante de ChatGPT, por presuntas infracciones del Reglamento General de Protección de Datos (RGPD) de la Unión Europea.
En finales del mes pasadoEl DPA de Italia ordenó a OpenAI que dejara de procesar los datos de los residentes, debido a una serie de supuestas infracciones de GDPR, lo que rápidamente condujo a OpenAI geobloqueo del servicio en Italia.
A partir de este escrito, ChatGPT permanece accesible a través de una dirección IP española. Pero el regulador no parece haber emitido una orden para suspender el tratamiento.
En nota de prensa sobre su actuación (que hemos traducido del español), escribe: “La Agencia Española de Protección de Datos (AEPD) ha iniciado de oficio procedimiento de investigación preliminar contra la empresa estadounidense OpenAI, propietaria del servicio ChatGPT, por posible incumplimiento de la normativa.
El comunicado no proporciona ningún detalle sobre las preocupaciones específicas de la AEPD, pero sí hicimos preguntas.
La autoridad de protección de datos italiana planteó una serie de inquietudes relacionadas con el RGPD con respecto a ChatGPT, incluida la legalidad del procesamiento de OpenAI, problemas de transparencia, así como requisitos de acceso a datos y protección infantil.
A principios de esta semana él publicó una lista de medidas OpenAI debe implementar si quiere que se levante la orden de permanencia local, dándole una fecha límite de fin de mes para realizar la mayoría de los cambios.
OpenAI no se ha pronunciado públicamente sobre los cambios solicitados por la agencia italiana.
Una portavoz de OpenAI se negó a comentar sobre la investigación española ahora.
La nota de prensa de la AEPD confirma que previamente solicitó al Consejo Europeo de Protección de Datos (EDPB), órgano rector de la aplicación del RGPD, que incluyera ChatGPT en un debate plenario esta semana.
Dice que hizo la solicitud dado que “las operaciones de procesamiento global de OpenAI pueden tener un impacto significativo en los derechos de las personas”, lo que, según él, puede requerir “acciones armonizadas y coordinadas a nivel europeo”.
“La Comisión ha decidido en el pleno de hoy poner en marcha un grupo de trabajo para promover la cooperación e intercambiar información sobre las actuaciones de las autoridades de protección de datos”, añade la AEPD.
El grupo de trabajo de EDPB sobre ChatGPT actuará en paralelo a las encuestas de autoridades individuales. Pero, en última instancia, puede ayudar a coordinar la aplicación del RGPD en la tecnología de IA generativa en todo el bloque. Sin embargo, a corto plazo, las principales autoridades de protección de datos, como Italia y España, pueden concluir sus investigaciones y tomar medidas coercitivas antes de que el Consejo pueda ofrecer recomendaciones de armonización.
Una diferencia de enfoque ya es evidente: la DPA italiana ha emitido una orden de suspensión, mientras que la AEPD española solo ha anunciado que está llevando a cabo una revisión preliminar de ChatGPT en esta etapa. Aunque esto puede sugerir que la sonda española está menos avanzada que la de Italia.
En otras declaraciones públicas, la AEPD dijo que “aboga por el desarrollo e implementación de tecnologías innovadoras, como la inteligencia artificial”. Pero enfatizó que cualquier desarrollo de este tipo debe cumplir plenamente con el marco de protección de datos de la UE y los derechos y libertades que el RGPD otorga a las personas.
Para obtener más información sobre cómo se aplican regulaciones como GDPR a la IA generativa, consulte nuestro bucear profundo.