Análisis de riesgos y recomendaciones de protección de datos para el uso de GPT-5

Agosto 11, 2025 por Antonio Sosa

La aparición de GPT-5 genera toda una serie de expectativas y dudas. En los siguientes tres artículos intento aportar un poco de luz sobre aspectos básicos en relación con la seguridad de la información y la protección de datos personales y su implicación tanto a nivel de seguridad como de cumplimiento normativo.

El primer artículo es relativo al Cumplimiento legal y ciberseguridad en el uso de GPT-5

Cumplimiento legal y ciberseguridad en el uso de GPT-5

El uso de GPT-5 (modelo de lenguaje generativo de OpenAI) conlleva obligaciones estrictas en materia de protección de datos personales y seguridad de la información. En la Unión Europea, el Reglamento General de Protección de Datos (RGPD, Reglamento UE 2016/679) y su desarrollo en España mediante la Ley Orgánica 3/2018 de Protección de Datos Personales y Garantía de Derechos Digitales (LOPDGDD) son el marco principal. Estos establecen principios fundamentales como la licitud, lealtad y transparencia en el tratamiento (art. 5.1.a RGPD), así como la minimización de datos, limitación de la finalidad, exactitud, integridad-confidencialidad y responsabilidad proactiva. Cualquier tratamiento de datos personales a través de GPT-5 debe justificarse en una base legal válida (consentimiento, ejecución de contrato, interés legítimo, etc., según arts. 6-9 RGPD) y respetar el deber de información al interesado de forma clara y accesible. En particular, la normativa española fija que el consentimiento de menores solo es válido desde los 14 años, por lo que se deberán implementar medidas para verificar la edad de los usuarios o recabar autorización paterna cuando proceda (tal como exigieron autoridades europeas tras incidentes con ChatGPT).

Es imprescindible determinar las responsabilidades de las partes. La organización que integra GPT-5 en sus servicios actuará normalmente como “responsable del tratamiento” de los datos de sus clientes o usuarios, mientras que el proveedor del modelo (e.g. OpenAI) actuará como “encargado del tratamiento” por procesar datos personales por cuenta de aquella. Conforme al art. 28 RGPD, debe firmarse un contrato de encargo (Data Processing Addendum, DPA) con OpenAI que incluya cláusulas para garantizar la confidencialidad, la seguridad y la no utilización de los datos para fines distintos a los instruidos. OpenAI, por su parte, declara apoyar el cumplimiento de privacidad (GDPR, CCPA) y ofrece a sus clientes empresariales un DPA, además de someter sus productos a auditorías independientes de seguridad (ej. informes SOC 2 Type II y registro CSA STAR). No obstante, la responsabilidad última ante las autoridades recae en la organización responsable: un incumplimiento podría implicar sanciones de hasta 20 millones de euros o el 4% de la facturación global, según la gravedad (art. 83 RGPD). Conviene recordar el precedente de Italia, donde el uso de ChatGPT fue temporalmente bloqueado por la autoridad de datos (Garante) por múltiples infracciones al RGPD, obligando a OpenAI a implementar medidas de transparencia, control de edad y limitación de usos de datos personales para reanudar el servicio.

En cuanto a transferencias internacionales, si los datos personales de usuarios europeos se envían a los servidores de OpenAI fuera del EEE (por ejemplo, a EE. UU.), se deben garantizar mecanismos legales conforme al Capítulo V del RGPD. Actualmente, esto implica verificar si OpenAI está cubierto por un régimen de adecuación (p. ej. el EU–US Data Privacy Framework si procede) o, en su defecto, suscribir las Cláusulas Contractuales Tipo de la Comisión Europea, junto con evaluaciones de riesgo de transferencia (caso por caso) y medidas suplementarias de seguridad. Así se mitigarán los riesgos identificados por el Tribunal de Justicia de la UE en el asunto Schrems II. Igualmente, la empresa debe asegurarse de que OpenAI (y cualquier subencargado) se someta a estándares de seguridad equivalentes a los europeos.

La seguridad de la información es otro pilar del cumplimiento. El art. 32 RGPD exige medidas técnicas y organizativas apropiadas para garantizar la confidencialidad, integridad y disponibilidad de los datos personales. La adopción de un Sistema de Gestión de Seguridad de la Información conforme a la norma ISO/IEC 27001 es altamente recomendable para las organizaciones que utilicen GPT-5. Esta norma proporciona un marco sólido para identificar y gestionar riesgos de seguridad, centrándose en la protección de la información (confidencialidad, integridad, disponibilidad) y en el cumplimiento legal. Implementar ISO 27001 ayuda a establecer políticas de acceso, cifrado de comunicaciones, control de proveedores y planes de respuesta a incidentes, todo lo cual resulta esencial al incorporar una IA que tratará posiblemente datos sensibles. De hecho, ISO 27001 insiste en la mejora continua de la seguridad, lo que encaja con un entorno tecnológico en rápida evolución como la IA. Asimismo, la norma ISO/IEC 27701 (extensión para privacidad) puede reforzar la gestión de datos personales. Las organizaciones deben realizar pruebas de penetración y auditorías periódicas de sus entornos con GPT-5 (como también hace OpenAI con sus APIs) para detectar vulnerabilidades antes de que sean explotadas.

En el plano normativo español, la Ley 34/2002 de Servicios de la Sociedad de la Información (LSSI-CE) impone obligaciones adicionales cuando se ofrece un servicio por medios electrónicos, como suele ser el caso de las aplicaciones o plataformas que integran GPT-5. En cumplimiento del art. 10 LSSI, el proveedor del servicio deberá publicar un aviso legal accesible, permanente y gratuito en su sitio web con información general: nombre o razón social, domicilio o sede, contacto (correo electrónico), datos registrales, NIF, códigos de conducta aplicables, etc. También se debe disponer de una política de privacidad en la que se informe detalladamente del tratamiento de datos (en línea con los arts. 12 y 13 RGPD). Si el servicio con GPT-5 implicase comunicaciones comerciales electrónicas o el uso de cookies para recopilar datos, habrá que cumplir las exigencias del art. 22.2 LSSI (consentimiento informado para cookies) y las del régimen de comunicaciones no solicitadas (arts. 21 y 22 LSSI), evitando el envío de publicidad sin consentimiento previo. Adicionalmente, la LSSI establece limitaciones de responsabilidad para prestadores intermediarios (arts. 14-17 LSSI); aunque en el caso de GPT-5 la organización proveedora no es un mero intermediario pasivo, sí debe actuar diligentemente retirando o bloqueando contenido ilícito que eventualmente generase la IA tan pronto tenga conocimiento (por ejemplo, si GPT-5 generara contenido que vulnera derechos de terceros, la empresa debería neutralizarlo para no incurrir en responsabilidad).

Por último, la LOPDGDD española contempla en su artículo 87.3 una obligación relevante en entornos laborales: las empresas deben establecer criterios claros sobre la utilización de dispositivos digitales y herramientas tecnológicas por parte de sus empleados. Esto implica que una Política de uso de herramientas de IA (como GPT-5) debe integrarse en las políticas internas de la empresa, definiendo en qué condiciones se permite su uso, qué tipo de datos pueden introducirse en la IA y cuáles no (por ejemplo, prohibiendo introducir datos personales sensibles o secretos empresariales en servicios de IA no autorizados). Incluir a los representantes de los trabajadores en la elaboración de estas directrices es recomendable para garantizar su eficacia y aceptación. Esta medida no solo es exigible legalmente, sino que previene riesgos como fugas de información confidencial y vulneraciones involuntarias de la normativa de datos por parte de empleados entusiasmados en probar GPT-5 sin los debidos controles.

En resumen, el cumplimiento legal y de ciberseguridad en el uso de GPT-5 requiere un enfoque integral: respetar los principios y derechos del RGPD/LOPDGDD (incluyendo transparencia, base jurídica, minimización, derechos de los interesados), firmar contratos adecuados con los proveedores (encargados), garantizar transferencias internacionales legales, implementar fuertes medidas de seguridad alineadas con ISO 27001, y cumplir las obligaciones de información y responsabilidad establecidas en la LSSI. Todo ello, complementado con políticas internas y formación, establecerá una base sólida para usar GPT-5 de manera conforme a la ley y segura para los datos personales.

Riesgos asociados al tratamiento de datos personales con IA generativa

El empleo de modelos de IA generativa como GPT-5 presenta riesgos específicos en materia de protección de datos personales, que deben ser identificados y gestionados adecuadamente. A continuación, se destacan los principales riesgos:

  • Tratamiento inadvertido de datos personales: GPT-5, por su naturaleza entrenada con ingentes datos textuales, puede procesar datos personales, aunque no sea la intención explícita. Incluso si la organización cree que las consultas son “anónimas” o no identificativas, existe la posibilidad de que se introduzcan o generen datos referentes a personas identificadas o identificables. El ICO británico (recogido por la AEPD) ha aclarado que el tratamiento incidental o no intencionado sigue siendo tratamiento de datos personales y está sujeto plenamente a la normativa. Ignorar esto conlleva riesgo de incumplimiento por falta de base legal o información adecuada.
  • Falta de transparencia en usos novedosos de datos: Muchas aplicaciones de IA generativa se alimentan de datos recopilados para otros fines (por ejemplo, datos obtenidos mediante web scraping o reutilización de información de usuarios). Si estos datos personales se reutilizan sin informar a los interesados, se viola el principio de transparencia del RGPD. Un riesgo asociado es asumir erróneamente que, por ser prácticas comunes en la industria, los interesados “esperan” dichos usos: la AEPD advierte que la práctica habitual no equivale a la expectativa razonable del usuario, especialmente cuando datos entregados para un propósito se reutilizan años después para otro (como entrenar un modelo). Esto puede dar lugar a reclamaciones y sanciones por falta de información y de legitimidad en el tratamiento.
  • Confusión entre datos identificatorios (PII) y datos personales en general: Existe el riesgo de que una organización subestime el alcance de lo que son datos personales, centrándose solo en “datos identificativos directos”. El RGPD define como dato personal cualquier información relacionada con persona identificada o identificable, un concepto amplio que abarca más que la típica “PII” anglosajona. En el contexto de GPT-5, incluso fragmentos de texto, descripciones o combinaciones de datos podrían identificar a alguien (directa o indirectamente). Desconocer este alcance podría llevar a exponer datos personales sin las salvaguardas debidas, p. ej., si GPT-5 genera una respuesta que combina información que permite identificar a un individuo (aunque individualmente las piezas no lo identifiquen, juntas sí).
  • Incorporación de datos personales en el modelo y dificultad para su supresión: Los modelos generativos pueden retener información personal presente en los datos de entrenamiento y, bajo ciertas condiciones, esa información podría ser revelada en las respuestas del modelo. GPT-5 podría llegar a “recordar” fragmentos de datos personales (por ejemplo, nombres, biografías, números) incluidos en su corpus de entrenamiento y reproducirlos parcial o totalmente ante determinadas consultas. Esto genera serias implicaciones respecto al principio de minimización (¿era necesario entrenar el modelo con esos datos personales?) y al derecho de supresión (¿cómo borrar datos personales incrustados dentro de un modelo de IA?). A diferencia de una base de datos tradicional, en un modelo entrenado es mucho más complejo eliminar datos específicos a petición de un interesado, lo que supone un riesgo de incumplimiento de derechos ARCO si no se abordan soluciones (como retraining o filtrado) para honrar solicitudes legítimas de borrado. Este fue uno de los puntos señalados por la autoridad italiana al exigir a OpenAI limitar el uso de datos personales para entrenamiento y explorar mecanismos para suprimir datos personales del modelo.
  • Decisiones automatizadas y sesgos: Si GPT-5 se utiliza para tomar decisiones que afectan a personas (por ejemplo, filtrar CVs, evaluar perfiles, dar recomendaciones financieras o médicas), existe el riesgo de que se produzcan decisiones automatizadas potencialmente discriminatorias o erróneas. El modelo puede contener sesgos aprendidos de los datos (p. ej., prejuicios hacia ciertos colectivos) y carece de contexto humano para matizar resultados. Esto puede traducirse en tratamientos injustos hacia individuos o incluso en la vulneración del art. 22 RGPD, que otorga a las personas derecho a no ser sometidas a decisiones basadas únicamente en tratamientos automatizados que produzcan efectos jurídicos o significativamente similares. Además, sin la debida transparencia, el interesado no podría entender la lógica usada, contraviniendo las exigencias de explicabilidad. Desde una perspectiva de riesgos, errores plausibles cometidos por GPT-5 (que suenan confiables, pero son falsos) pueden pasar desapercibidos y ocasionar perjuicios al individuo (por ejemplo, denegar un servicio o dar información médica incorrecta), con la correspondiente responsabilidad para la organización.
  • Violaciones de seguridad y filtraciones de datos: Al interactuar con GPT-5, típicamente vía API o plataforma en la nube, los datos personales proporcionados podrían quedar expuestos por fallos de seguridad. Ya en marzo de 2023, ChatGPT experimentó una brecha que expuso historiales de chat y datos de pago de usuarios. En servicios masivos, una vulnerabilidad podría permitir a terceros no autorizados acceder a contenido de consultas (que podrían incluir datos personales sensibles introducidos por usuarios o empleados). Este riesgo abarca desde ciberataques externos (aprovechando vulnerabilidades en la API, en integraciones o en la infraestructura cloud) hasta errores en la configuración por parte de la empresa usuaria (p. ej., claves API expuestas, permisos laxos). Una filtración de datos personales activaría la obligación de notificación de brechas (art. 33 RGPD) y podría causar daños reputacionales y sanciones. Adicionalmente, existe el riesgo de divulgación no autorizada a través de las mismas respuestas del modelo: si no se controla, GPT-5 podría llegar a revelar datos privados de una persona a otro usuario que los consulte, violando la confidencialidad.
  • Riesgos de confidencialidad y secreto empresarial: Más allá de los datos personales de clientes, las organizaciones deben considerar que empleados u usuarios podrían introducir en GPT-5 información confidencial de la empresa (por ejemplo, códigos fuente, planes de negocio, datos de clientes) sin autorización. Ya ha habido incidentes documentados en los que trabajadores filtraron secretos empresariales a chatbots de IA. Una vez enviados, esos datos quedan en servidores externos y fuera del control corporativo, con riesgo de acceso por parte de OpenAI o de filtración si hubiese brechas. Esto no es estrictamente un riesgo de “dato personal” (salvo que los secretos incluyan datos de personas), pero sí un serio riesgo legal (incumplimiento de deber de secreto, posible violación de medidas de seguridad del RGPD si esos datos incluyen personales, etc.). Por tanto, entra dentro de un scope más amplio de seguridad de la información e igualmente relevante en análisis de riesgos integrales.
  • Transferencias de datos fuera del EEE: En la medida que GPT-5 (OpenAI) procese datos desde ubicaciones fuera del Espacio Económico Europeo, existe el riesgo jurídico de una transferencia internacional ilícita. Tras Schrems II, se sabe que transferir datos a EE. UU. sin garantías adecuadas puede exponer a la vigilancia gubernamental sin los recursos legales equivalentes a Europa. Si la empresa no implementa mecanismos válidos (SCC, certificación en Privacy Shield/DPF, etc.), el tratamiento a través de GPT-5 podría ser considerado una transferencia no permitida, con el riesgo de sanción correspondiente. Incluso con SCC, hay riesgo residual si las autoridades estadounidenses solicitan acceso a los datos (Cloud Act, FISA 702), lo que debe contemplarse en la evaluación de riesgos transfronterizos.
  • Imposibilidad de atender plenamente derechos ARCO-POL: Derivado de varios de los puntos anteriores, hay un riesgo de frustrar derechos de los interesados: por ejemplo, si un usuario solicita acceso o portabilidad de sus datos tratados por GPT-5, ¿qué se le puede entregar? Solo quizá sus prompts y respuestas, pero no se puede extraer “sus datos” del modelo en sí. Similarmente, rectificación de datos inexactos es complicada si la inexactitud proviene de un modelo que generó contenido erróneo sobre alguien (¿cómo se “corrige” el modelo?). El derecho de oposición podría invocarse para no ser objeto de perfiles por IA – la empresa debe tener un procedimiento para excluir a ciertas personas de tratamientos con GPT-5 si lo solicitan. Y, como ya mencionamos, el derecho de supresión se topa con limitaciones técnicas si los datos están embebidos en millones de parámetros. Este desfase entre la IA generativa y el marco de derechos es un riesgo legal que las autoridades observan de cerca, y requerirá soluciones técnicas o contractuales (como no usar datos personales en el entrenamiento o permitir optar por no ser incluido) para mitigarlo.
  • Ausencia de un “excepción IA” en la ley: Un riesgo más general es el cumplimiento normativo insuficiente por pensar erróneamente que las reglas de protección de datos no aplican plenamente a la IA por ser algo novedoso. La AEPD ha subrayado que no existe ninguna excepción general para la IA generativa: si se tratan datos personales, aplica toda la normativa de protección de datos sin excusas. Cualquier relajación en medidas de cumplimiento bajo la creencia de que “la IA es terreno nuevo y no regulado” puede exponer a la organización a infracciones. Las autoridades están vigilando activamente este campo – como muestra, la coordinación de varias autoridades europeas analizando a ChatGPT en 2023-2024 – por lo que confiar en lagunas legales es un enfoque de altísimo riesgo.

En conclusión, los riesgos van desde lo técnico (brechas, filtraciones, outputs del modelo no controlados) hasta lo jurídico (incumplimiento de principios, imposibilidad de respetar derechos, sanciones) y éticos (sesgos, falta de transparencia). Identificar estos riesgos es el primer paso imprescindible para luego aplicar medidas de mitigación adecuadas, como veremos a continuación.

 Arona, 11 de agosto de 2025

 

Antonio Sosa

Ingeniero (Especialista en Ciberseguridad)

Abogado (Especialista en Derecho Tecnológico)

¿Tiene una consulta?

14 + 3 =

QUERÉTARO CONSULTERÍA Y CIBERSEGURIDAD S.L., como responsable del tratamiento, tratará sus datos personales con la finalidad de atender de forma integral su petición de información. La base legítima del tratamiento es su consentimiento. Del mismo modo, no se cederán sus datos personales a terceros, ni están previstas transferencias internacionales de sus datos personales. Por último, se pone en su conocimiento que podrá ejercitar sus derechos de acceso, rectificación y supresión, así como otros derechos, como se explica en la información adicional, pudiendo consultar la misma a través de nuestra Política de Privacidad.