La AEPD advierte de que usar imágenes de terceros en IA puede vulnerar derechos y generar responsabilidades

Lorenzo Cotino | Foto: cotino.es

Lorenzo Cotino | Foto: cotino.es

La Agencia Española de Protección de Datos alerta de los riesgos visibles e invisibles de introducir fotografías de otras personas en sistemas de inteligencia artificial, una práctica cada vez más común que puede afectar a la privacidad, el honor y otros derechos fundamentales.

El presidente de la Agencia Española de Protección de Datos (AEPD), Lorenzo Cotino Hueso, recuerda que cualquier fotografía de una persona viva constituye un dato personal protegido por la normativa europea. Por ello, su uso en aplicaciones de inteligencia artificial implica un tratamiento de datos que requiere garantías legales.

Cotino subraya que incluso acciones aparentemente inocentes —como subir una foto a una plataforma para crear animaciones o montajes— pueden tener consecuencias. «La imagen siempre es un dato personal», afirma, lo que obliga a respetar el Reglamento General de Protección de Datos. 

Riesgos visibles e invisibles

La Agencia distingue entre riesgos evidentes, como la manipulación ofensiva o la difusión no consentida, y otros menos perceptibles. Entre estos últimos destaca el entrenamiento de los sistemas de IA con imágenes subidas por los usuarios.

Según explica Cotino, al cargar fotografías en estas herramientas se está aportando información personal que puede quedar integrada en bases de datos difíciles de controlar o eliminar. Además, muchas imágenes incluyen metadatos, como la geolocalización, que amplían la información disponible sobre la persona retratada.

Consentimiento y responsabilidad del usuario

El presidente de la AEPD insiste en que el consentimiento es un requisito básico. Haber participado en una fotografía no implica autorizar su difusión ni su transformación mediante inteligencia artificial.

También aclara que la responsabilidad principal recae en quien sube la imagen. Si el uso genera perjuicios, la persona que decide introducirla en la plataforma puede enfrentarse a sanciones administrativas o incluso a acciones judiciales.

Plataformas y obligaciones preventivas

Aunque el usuario es el primer responsable, Cotino señala que las empresas tecnológicas también deben adoptar medidas para impedir usos ilícitos, como la sexualización o la manipulación degradante de imágenes.

Las autoridades europeas ya han exigido a algunas plataformas que introduzcan barreras técnicas para evitar este tipo de contenidos, especialmente cuando afectan a menores o colectivos vulnerables.

Un fenómeno masivo en expansión

La AEPD advierte de que millones de personas utilizan ya herramientas capaces de generar o modificar imágenes con gran facilidad, lo que multiplica los riesgos si no existe conciencia sobre sus implicaciones legales y éticas.

El organismo ha publicado recomendaciones y guías para promover un uso responsable de la inteligencia artificial, subrayando que la tecnología puede aportar beneficios, pero también causar daños si se emplea sin cautela.

Protección de datos en la era de la IA

Cotino destaca que el marco legal europeo ya ofrece instrumentos suficientes para actuar frente a abusos, desde la normativa de protección de datos hasta el Código Penal en los casos más graves.

Para la Agencia, el principal reto es la concienciación ciudadana. «No todo lo que parece una broma lo es», advierte, insistiendo en que la difusión masiva de contenidos digitales puede convertir una acción trivial en un problema serio para la persona afectada.

La AEPD concluye que la expansión de la inteligencia artificial exige reforzar la cultura de privacidad y responsabilidad digital, especialmente cuando se manejan imágenes de terceros que pueden afectar directamente a su identidad y reputación.