Autor
febrero 17, 2026
8 min de lectura

Deepfakes, inteligencia artificial y derecho al honor: cuando la tecnología deja de ser un juego

8 min de lectura

La inteligencia artificial ha transformado radicalmente la forma en que se crean, modifican y difunden imágenes y voces en el entorno digital. Lo que hasta hace poco requería conocimientos técnicos avanzados hoy está al alcance de cualquier usuario con un teléfono móvil. Sin embargo, esta democratización tecnológica no implica ausencia de responsabilidad jurídica.

La reciente advertencia de la Agencia Española de Protección de Datos (AEPD) y la aprobación del anteproyecto de reforma legislativa en materia de derecho al honor y a la intimidad personal confirman una idea clara: la manipulación digital de imágenes y voces mediante inteligencia artificial no es una zona libre de Derecho.

 

Toda imagen identificable es un dato personal

Desde el punto de vista jurídico, cualquier imagen en la que una persona sea identificada o identificable constituye un dato personal, conforme al artículo 4 del Reglamento General de Protección de Datos (RGPD). No es necesario que aparezca el nombre; basta con que la persona pueda ser reconocida por su rostro, su entorno, su voz o el contexto de difusión.
 
Esto significa que subir, transformar o difundir una imagen mediante herramientas de inteligencia artificial supone un tratamiento de datos personales. Y ese tratamiento exige una base de legitimación válida, generalmente el consentimiento.
 
 
 

El riesgo no es solo visible

La AEPD distingue entre riesgos visibles e invisibles.
 
Entre los riesgos visibles destacan:
  • La pérdida de control sobre la imagen.
  • La difusión masiva o no prevista.
  • La imposibilidad real de retirada.
  • La atribución de hechos falsos.
  • La descontextualización.
  • La sexualización o creación de contenido íntimo sintético.
  • La afectación a menores o personas vulnerables.
Pero existen también riesgos menos perceptibles: la conservación de imágenes en sistemas de IA, su uso para entrenamiento automático, la generación de metadatos o la intervención de múltiples actores tecnológicos sin conocimiento del afectado.
 
El daño no depende de que la imagen sea “real”. Una imagen generada por IA puede producir un impacto reputacional, profesional o personal tan grave como una auténtica.
 

La reforma contra los deepfakes: un punto de inflexión

El Gobierno español ha impulsado una reforma legislativa que refuerza la protección del derecho al honor y a la intimidad frente al uso y difusión de imágenes, voces o vídeos manipulados mediante inteligencia artificial, conocidos como deepfakes.
Esta iniciativa responde a la creciente preocupación social y jurídica por la creación de contenidos ultrafalsificados sin consentimiento.
 
La reforma prevé:
  • La tipificación penal de determinadas conductas vinculadas a la creación y difusión de deepfakes lesivos.
  • La exigencia de consentimiento expreso previo para la utilización de imágenes generadas por IA.
  • La posibilidad de adoptar medidas cautelares para la retirada urgente de contenidos.
  • La coordinación con la normativa de protección de datos y comunicación audiovisual.

El mensaje es claro: ni la tecnología ni la etiqueta de “contenido generado por IA” neutralizan la responsabilidad cuando se lesionan derechos fundamentales.

 

¿Es suficiente advertir que es ficticio?

No. La advertencia no elimina automáticamente el daño. Si el contenido es verosímil, se difunde sin consentimiento y afecta al honor, la intimidad o la propia imagen, puede generar responsabilidad civil, administrativa e incluso penal.
 
Tampoco es válida la excusa de que “la imagen ya estaba en internet”. Cada nuevo uso exige su propia legitimación, y cuanto más se aleja del contexto original, mayor es el riesgo jurídico.

Especial protección de menores y personas vulnerables

Cuando las imágenes afectan a menores de edad o a personas en situación de especial vulnerabilidad, el umbral de tolerancia jurídica es mínimo. En estos casos confluyen protección de datos, derechos fundamentales y derecho penal, con consecuencias especialmente graves.

Tecnología y responsabilidad

La inteligencia artificial no ha creado nuevos derechos, pero sí ha multiplicado los riesgos. La facilidad técnica para generar o manipular imágenes no reduce la responsabilidad jurídica; la incrementa.

El verdadero reto no es tecnológico, sino de responsabilidad y conciencia jurídica: una imagen nunca es neutra cuando representa a una persona real, y su manipulación puede tener consecuencias muy serias.

Si deseas asesoramiento en materia de protección de datos, derecho al honor, intromisiones ilegítimas en la imagen o defensa frente a la difusión de contenidos digitales, puedes contactar para un análisis personalizado de tu caso.

Entrevista en El Diario Vasco sobre deepfakes y responsabilidad penal. Accede a la entrevista completa en El Diario Vasco.
 

Asesoría Jurídica

CONFIA EN MÍ para acompañarte y asesorarte en cada paso de tu proceso legal. Defendiendo tus derechos con un TRATO CERCANO y un SERVICIO PERSONALIZADO.

¡Contacta conmigo!
Resumen de privacidad

Esta web utiliza cookies para que podamos ofrecerte la mejor experiencia de usuario posible. La información de las cookies se almacena en tu navegador y realiza funciones tales como reconocerte cuando vuelves a nuestra web o ayudar a nuestro equipo a comprender qué secciones de la web encuentras más interesantes y útiles.