Legal & Fiscal
Return

26.04.2023

¿Estamos pausando el desarrollo de la tecnología?

 
 
 
Desde el lanzamiento oficial de ChatGPT por sus creadores (la compañía OpenAI LLC) el pasado año hemos sido testigos de la gran repercusión e interés que la misma ha generado en base al salto cualitativo con respecto a otras herramientas previas desarrolladoras de esta tecnología. Tal es así, que estos últimos meses hemos presenciado multitud de eventos sociales/culturales donde los diálogos generados por ChatGPT se utilizaban en debates, en los discursos de inicio de galas, etc., con la consecuente reacción de perplejidad del público presente, al ser informado de que las conversaciones, totalmente naturales al oído humano, habían sido generadas mediante la referida Inteligencia Artificial.
 
Tras esta primera fase de popularidad absoluta, y con la consecuente regularización jurídica en proceso de desarrollo (vía Propuesta de Reglamento Europeo en materia de IA), comenzó inevitablemente a debatirse si ChatGPT cumplía con la normativa europea en materia de protección de datos personales (Reglamento (UE) de 2016/679, relativo a la protección de las personas físicas; el RGPD). En este sentido, la Autoridad de Control Italiana (Garante per la Protezione dei Dati Personali) ha sido contundente ordenando a OpenAI LLC (con carácter urgente y a la espera de que concluya la investigación preliminar) la restricción provisional al tratamiento de datos personales de los interesados establecidos en territorio italiano, de conformidad con el artículo 58, párr. 2 (f) del RGPD, por incumplir la referida normativa vigente de aplicación. En concreto, ha considerado que:
 
    1. No se facilita información alguna a los usuarios, ni a los interesados cuyos datos hayan sido recogidos por OpenAI LLC y tratados a través del servicio ChatGPT;
 
    1. Existe una ausencia de una base jurídica adecuada en relación con la recogida de datos personales y su tratamiento con el fin de entrenar los algoritmos subyacentes al funcionamiento de ChatGPT;
 
    1. El tratamiento de los datos personales de los interesados es inexacto;
 
  1. No se verifica la edad de los usuarios en relación con el servicio ChatGPT que, según los términos publicados por OpenAI LLC, está reservado a personas mayores de 13 años; ni existen filtros para los menores de 13 años, que les expone a respuestas totalmente inadecuadas en relación con su nivel de desarrollo y autoconocimiento.
 
Tras las últimas reuniones mantenidas, confirmadas mediante comunicado emitido por la Autoridad de Control Italiana, ésta ha manifestado que levantará la restricción temporal establecida si OpenAI LLC implementa, con fecha límite el próximo 30 de abril, medidas concretas en relación con el deber de información (redactar y publicar en la web una nota informativa describiendo los tratamientos de datos necesarios para el funcionamiento de ChatGPT), los derechos de los interesados incluidos usuarios y no usuarios (la disponibilidad de herramientas que permitan a los interesados, incluidos los no usuarios, obtener la rectificación de sus datos personales incorrectamente generados por el servicio, o bien la supresión de dichos datos si la rectificación resulta técnicamente inviable), la aplicación correcta de la base jurídica del tratamiento de los datos personales de los usuarios para los algoritmos de formación (consentimiento o interés legítimo como base jurídica aplicable), protección de menores (aplicación inmediata de un sistema de verificación de edad para filtrar a los usuarios menores de 13 años, y aquellos entre 13 y 18 años para los que no se disponga el consentimiento de los titulares de la patria potestad), y finalmente, y no menos relevante, OpenAI LLC tendrá que promover una campaña informativa de acuerdo con la Autoridad de Control Italiana (antes del 15 de mayo, a través de radio, televisión, prensa e Internet para informar a los particulares sobre el uso de sus datos personales para el entrenamiento de algoritmos).
 
Por otro lado, todo el debate y análisis generado ha provocado que diversas Autoridades de Control europeas hayan contactado con la Autoridad de Control Italiana para compartir conclusiones y, en concreto, el Comité Europeo de Protección de Datos (European Data Protection Board) llevó a debate este asunto en su última sesión plenaria (a instancia de la AEPD -Agencia Española de Protección de Datos), Autoridad que ha dado un paso al frente y ha propuesto activamente la intervención del Comité en base a que, según ha manifestado, “entiende que los tratamientos globales de datos pueden tener un impacto sobre los derechos de las personas y por lo tanto requieren de decisiones coordinadas a nivel europeo”. Como resultado de la referida sesión, el Comité Europeo ha decidido lanzar un grupo de trabajo específico sobre ChatGPT, dedicado a fomentar la cooperación e intercambiar información, sobre posibles acciones de ejecución llevadas a cabo por las Autoridades de protección de datos.
 
En este sentido, y a la fecha del presente artículo, la AEPD confirma finalmente que ha iniciado, de oficio, actuaciones previas de investigación contra OpenAI LLC en el marco de sus potestades y competencias propias, y en coordinación con el resto de Autoridades de Control en el marco del Comité Europeo.