El desarrollo de los modelos de lenguaje de gran tamaño o de gran escala, conocidos como LLMs (por sus siglas en inglés), ha generado un impacto significativo en numerosos campos, proporcionando importantes beneficios a la sociedad, como el avance en la traducción automática, la generación de contenido personalizado y el apoyo en la investigación académica.
Los LLMs son modelos entrenados mediante técnicas de aprendizaje automático sin supervisión, lo que les permite procesar y analizar cantidades masivas de datos para comprender patrones de lenguaje, gramática y contexto. Dado que estas grandes cantidades de datos pueden incluir información de carácter personal, es fundamental que los LLMs cumplan con el Reglamento General de Protección de Datos (“RGPD”).
Uno de los LLMs más conocidos y accesibles al público general es ChatGPT, presentado por la empresa OpenAI el 30 de noviembre de 2020, marcando un hito en la historia de la tecnología. Sin embargo, su capacidad para procesar volúmenes significativos de información, incluyendo datos de carácter personal, ha llamado la atención de diversas autoridades de control europeas.
Estas autoridades, encargadas de velar por la protección de datos, han iniciado una serie de investigaciones para examinar las prácticas de OpenAI en relación con el RGPD, en virtud del artículo 58.1.a) y b) del RGPD.
Hasta el 15 de febrero de 2024, OpenAI no contaba con una sede en la Unión Europea, lo que impedía la aplicación del mecanismo de ventanilla única, un elemento clave del RGPD que permite a los responsables tratar con una única autoridad de protección de datos en lugar de múltiples autoridades nacionales.
En respuesta a esta situación, el CEPD tomó la iniciativa de establecer un Grupo de Trabajo el 13 de abril de 2023. El objetivo de este grupo, conocido como ChatGPT Task Force (en adelante, “ChatGPT TF”), es coordinar y compartir información entre las distintas autoridades nacionales de protección de datos sobre la aplicación de posibles acciones relacionadas con el tratamiento de datos personales por parte de ChatGPT.
Durante la reunión plenaria del CEPD del 16 de enero de 2024, se decidió precisar el mandato del ChatGPT TF, que se centra en el intercambio de información entre las distintas autoridades de control, en facilitar la coordinación en la comunicación externa por parte de las autoridades de control, asegurándose de que su mensaje y sus acciones sean coherentes y efectivas, y en identificar rápidamente una lista de cuestiones sobre las que se necesita un enfoque común para abordar las diferentes acciones de cumplimiento relacionadas con ChatGPT por parte de las autoridades de control.
A pesar de que, desde el 15 de febrero de 2024, OpenAI estableció una sede en la UE, lo que activó el mecanismo de ventanilla única para el tratamiento transfronterizo de datos, las investigaciones nacionales relacionadas con actividades de tratamiento de datos anteriores a la fecha de establecimiento de la sede europea de OpenAI continúan su curso. Estas investigaciones se llevan a cabo de manera coordinada dentro del ChatGPT TF, asegurando un enfoque unificado y coherente.
A pesar de que las investigaciones llevadas a cabo por las autoridades de control siguen su curso, el informe presenta varias conclusiones preliminares relativas al cumplimiento del RGPD por parte de ChatGPT:
El informe del CEPD proporciona una visión detallada de las preocupaciones y desafíos relacionados con el cumplimiento del RGPD en el contexto de los modelos de lenguaje de gran escala.
Las investigaciones en curso y las conclusiones preliminares subrayan la necesidad de cumplir con las disposiciones del RGPD, así como de una responsabilidad clara por parte de los responsables del tratamiento de los datos incluidos en estos modelos, para proteger los derechos de los individuos.
La sinergia entre las autoridades de control y las acciones proactivas de entidades como OpenAI es fundamental para garantizar que los avances en el campo de la inteligencia artificial no solo promuevan la innovación, sino que también respeten los principios de privacidad y protección de datos.
Artículo elaborado por Samanta Murillo, manager de Regulación Digital de PwC Tax & Legal, y Lucía Etxe Rivas, associate de Regulación Digital de PwC Tax & Legal.