Desinformación, deepfakes e identidad digital: riesgos, detección y soluciones

Infografía conceptual sobre desinformación, deepfakes e identidad digital, con ilustraciones de noticias falsas, manipulación audiovisual y protección de datos en un entorno digital.

1. La desinformación: un fenómeno omnipresente y sus tácticas

La desinformación se define como la «difusión de contenidos o mensajes falsos, incorrectos, engañosos, manipulados o fabricados, que son compartidos con o sin una intención explícita de hacer daño o manipular a una persona, grupo, institución o país.» (Estrategias para reducir la desinformación. Universidad de Costa Rica). No es un fenómeno nuevo, pero su propagación se ha amplificado exponencialmente con la digitalización y las redes sociales.

1.1. Tipos de desinformación

Según Claire Wardle, experta en desinformación, existen siete categorías de desinformación según su grado de intención de engaño deliberado, popularmente conocidas como la «Escalera de la Manipulación» (Guía Práctica – Fake News – Fundación Telefónica):

  • Sátira o parodia: Su objetivo es el humor o la crítica, no el engaño, aunque puede confundir.
  • Conexión falsa: El titular no coincide con el contenido. Incluye el «clickbait» que busca ingresos publicitarios.
  • Omisión de contenido: Información sesgada que lleva a una interpretación errónea.
  • Contexto falso: Contenido real presentado en un contexto engañoso.
  • Contenido impostor: Suplantación de fuentes genuinas (ej., logos de empresas o medios).
  • Contenido manipulado: Alteración de contenido auténtico (fotos o videos).
  • Contenido fabricado: Información completamente falsa.

Adicionalmente, se identifican:

  • Contenido engañoso: Utilización parcial de información o argumentos falaces para inducir a conclusiones erróneas.
  • Contenido conspirativo: Pseudoteorías sin evidencia que sugieren control o manipulación por grupos poderosos.

1.2. Estrategias desinformativas comunes

Las tácticas para desinformar buscan influir en la percepción de la realidad y manipular la toma de decisiones:

  • Lenguaje emocional: Uso de palabras que evocan emociones negativas (miedo, enojo, desprecio) para aumentar el consumo, la atención y la difusión del mensaje.
  • Búsqueda de un chivo expiatorio: Culpar injustamente a un grupo específico para generar rechazo social.
  • «Whataboutism»: Desviar la atención del tema original hacia otros problemas similares para evitar el diálogo enfocado.
  • Incoherencia: Presentar argumentos contradictorios para persuadir sobre una postura falsa.
  • Descontextualización: Asociar imágenes o videos a situaciones o eventos a los que no pertenecen, o usar «expertos falsos».
  • Falsificación de documentos y entrevistas: Creación de cartas, documentos u objetos falsos para simular autenticidad.
  • «Blanqueo de información»: Filtrar mensajes falsos en webs de un continente para que sean replicados por medios en otros, aparentando independencia (Las fake news son solo la punta del iceberg: analizamos las tácticas de desinformación en campañas de influencia global – s2grupo).

2. El auge de los deepfakes: riesgos y tipologías

Los deepfakes son «sofisticadas falsificaciones digitales» creadas con Inteligencia Artificial, capaces de generar imágenes, videos o audios falsos que parecen increíblemente reales. Se han convertido en una de las mayores amenazas para la sociedad, incluso más que el robo de identidad, debido a su potencial para la desinformación, el fraude y la manipulación (DEEPFAKES: Riesgos, casos reales y desafíos en la era de la IA – ISMS Forum Spain).

2.1. Tipos de Deepfakes

Los deepfakes se clasifican por el tipo de contenido manipulado:

  • Deepfakes de vídeo: Alteran o reemplazan la cara de una persona en un video, creando situaciones falsas.
  • Deepvoices (deepfakes de audio): Utilizan IA para clonar la voz de una persona y hacerla decir cosas que nunca dijo.
  • Deepfakes de imágenes: Manipulan fotografías o imágenes estáticas.
  • Deepfaces: Crean imágenes convincentes pero completamente falsas, generadas desde cero con IA.
  • Deepfakes en tiempo real: Los más complejos, usan técnicas de video y audio para suplantación en tiempo real, lo que los hace muy difíciles de detectar.

2.2. Impacto de los deepfakes

  • Fraude financiero: Creación de identidades sintéticas, fraudes fantasma, reclamos de personas fallecidas, y el creciente «fraude del CEO» donde impostores solicitan información confidencial o autorizan transacciones.
  • Daño moral y reputacional: Manipulación no consensuada para acoso, chantaje y desinformación. Un caso relevante fue el deepfake racista de un director escolar en EE.UU., que provocó amenazas de muerte y daño reputacional.
  • Desinformación y propaganda política: Pueden difundir información falsa, manipular la percepción pública e influir en resultados políticos, socavando la confianza en las instituciones. El 50% de los deepfakes malintencionados se dirigen al sector del entretenimiento (incluidas redes sociales) y el 30% a la política.

3. La identidad digital y su vulnerabilidad

La identidad digital es el «conjunto de información generada por una persona en internet y que complementa a su identidad física«. Con la creciente dependencia de internet, la identidad de un individuo se compone tanto de datos personales (nombre, fecha de nacimiento, etc.) como de atributos y metadatos generados en línea (Aplicación de la tecnología Blockchain en la identidad digital – Repositorio.comillas.edu.).

3.1. Problemas actuales de la identidad digital

  • Falta de control del usuario: Los individuos tienen poca o ninguna capacidad para controlar cómo se gestiona su información.
  • Falta de seguridad en los sistemas de almacenamiento: La información sensible se almacena en bases de datos centralizadas, presentando un riesgo significativo de hackeos masivos y mal uso por parte de instituciones.
  • Monetización y comercialización de datos: Las empresas a menudo utilizan los datos de los usuarios sin su consentimiento o de forma poco ética, lo que lleva a una identidad digital fragmentada y a la pérdida del valor generado por esos datos.
  • Desajuste tecnológico: El desarrollo de dispositivos inteligentes ha superado al de los servidores y sistemas que los sustentan, relegando la seguridad a un segundo plano.

3.2. Hacia la identidad autosoberana (SSI) con Blockchain

La tecnología Blockchain se propone como una solución para la gestión de la identidad digital a través de los sistemas de Self-Sovereign Identity (SSI). El SSI otorga a los individuos y organizaciones un control completo y la propiedad absoluta de su identidad digital, sin necesidad de terceros.

Diez atributos clave de un sistema SSI:

  1. Existencia: La identidad digital debe vincularse a un ente físico.
  2. Control: El usuario debe tener control completo.
  3. Transparencia: Los sistemas SSI deben ser abiertos en funcionamiento y gestión.
  4. Accesibilidad: Acceso total a la identidad sin restricciones.
  5. Portabilidad: La identidad debe ser portable (ej., código QR, tarjeta digital).
  6. Perseverancia: La identidad debe perdurar tanto como su dueño lo desee.
  7. Versatilidad: Debe servir para múltiples tareas y transacciones, consolidando identidades fragmentadas.
  8. Consentimiento: Los usuarios deben consentir el uso de su información.
  9. Minimización: Solo se comparte la información estrictamente necesaria.
  10. Protección: Eliminación de riesgos de identidades fraudulentas.

Ventajas de Blockchain para SSI:

  • Almacenamiento descentralizado e inmutable: La información se guarda de forma segura en la cadena de bloques, repartida por los nodos de la red, haciendo casi imposible su modificación maliciosa.
  • Transparencia y privacidad: La información es anónima en la cadena, combinando ambas características.
  • Eliminación de intermediarios: Reduce costos de transacción al permitir a los usuarios manejar su información sin terceros.
  • Mecanismo Handshake para autenticación: Proceso de tres partes (inicio de sesión, verificación de solicitud, respuesta) para una autenticación segura.

4. Detección y combate contra la desinformación

La detección de la desinformación es un desafío continuo debido a la velocidad de propagación y la sofisticación de las técnicas de manipulación.

4.1. El papel del Fact-Checking

El «fact-checking» o verificación de datos es una técnica para comprobar la veracidad de las noticias. En España, organizaciones como Newtral, Maldita y EFE Verifica son referentes, formando parte de la International Fact-Checking Network (IFCN) que establece criterios de financiación, imparcialidad y transparencia.

Recomendaciones para el usuario:

  • Comprobar la fuente: Fiabilidad del medio o web.
  • Leer más allá del titular: Desconfiar de titulares sensacionalistas.
  • Comprobar la autoría: Buscar información sobre los autores; las noticias falsas a menudo carecen de ella.
  • Comprobar la fecha: Evitar noticias antiguas descontextualizadas.
  • Descartar páginas de humor/sátira: Pueden confundirse con noticias reales.
  • Controlar sesgos personales: No aceptar información solo porque confirme el propio punto de vista.
  • Confiar en expertos y medios de calidad: Acudir a fuentes fiables y a periodistas rigurosos (TinyEye, Botometer y otras herramientas para convertirte en un ‘fact checker’; Guía Práctica – Fake News – Fundación Telefónica; Las fake news son solo la punta del iceberg: analizamos las tácticas de desinformación en campañas de influencia global – s2grupo).
  • Consultar fact-checkers: Utilizar webs de verificación como Newtral, Maldita.es o EFE Verifica (Guía Práctica – Fake News – Fundación Telefónica).

4.2. Herramientas para la detección

  • Búsqueda inversa de imágenes: Herramientas como TinEye o Google Imágenes permiten rastrear el origen de una imagen para verificar si es antigua o ha sido descontextualizada.
  • Análisis de metadatos (EXIF): Revelan la fecha, hora, modelo de cámara, ubicación y programas de edición utilizados. La ausencia o inconsistencia de metadatos es una señal de alerta.
  • Error Level Analysis (ELA): Resalta inconsistencias en la compresión de una foto, indicando áreas modificadas.
  • Análisis de biología humana: Busca fallos en la imitación de gestos, movimientos y características físicas en deepfakes (ej., parpadeos, texturas irreales de piel, alineación de luz y sombras).
  • Análisis de luces y sombras: Verifica la coherencia de sombras y reflejos con las fuentes de luz de la escena; inconsistencias pueden indicar manipulación.
  • Herramientas para videos: InVID es una herramienta específica para verificar videos de Facebook y YouTube, comprobando contexto, veracidad y derechos de autor. Algoritmos basados en redes neuronales convolucionales también detectan la doble compresión en videos (Algoritmo de detección de manipulaciones inter-fotogramas en vídeos digitales).
  • Detección de bots: Botometer analiza el comportamiento de cuentas de redes sociales para determinar si son bots. Las redes sociales usan algoritmos para detectar comportamientos inusuales, pero los creadores de bots se adaptan (Cómo identificar los bots de noticias falsas – Kaspersky).
  • Extensiones de navegador: Newstrition es una extensión que recopila verificaciones de datos de fact-checkers latinoamericanos y advierte al usuario sobre contenido verificado.
  • Herramientas de IA para deepfakes: Trend Micro Deepfake Inspector detecta anomalías en videos grabados y face-swaping en videollamadas en tiempo real.

4.3. Rol de la Inteligencia Artificial en la detección

La IA está transformando la detección de noticias falsas. Permite el análisis de patrones lingüísticos, la identificación de información objetivamente relevante y la detección de contenido dañino o falso.

  • Procesamiento del Lenguaje Natural (NLP): Algoritmos como GPT-5 generan y analizan textos, permitiendo el entrenamiento de IA para detectar patrones en fake news.
  • Automatización: La IA puede acelerar la verificación de hechos, la producción de noticias y la detección de desinformación.
  • Desafíos: La eficacia de la IA depende de conjuntos de datos consensuados para evitar sesgos, y la rápida evolución de los deepfakes exige un desarrollo continuo de las herramientas de detección.

5. Retos y soluciones para el futuro

5.1. Impacto en la salud mental y la confianza

La desinformación y las fake news tienen un impacto negativo en la salud mental, causando ansiedad, depresión y estrés (Noticias falsas y su efecto en la salud mental – SciELO Bolivia). La sobreinformación se convierte en desinformación y la viralización banaliza el contenido, afectando la confianza pública. Esto puede llevar a una «infodemia» o «apatía de la realidad» donde los ciudadanos ya no distinguen entre realidad y ficción.

5.2. Desafíos regulatorios y éticos

  • Corresponsabilidad de plataformas: Las redes sociales amplifican la difusión de contenido popular y viral, pero las leyes actuales no las responsabilizan como distribuidores. La UE plantea que los usuarios deben etiquetar el contenido generado por IA.
  • Regulación local y en desarrollo: La legislación sobre deepfakes y desinformación es a menudo local, sujeta a interpretación y en proceso de revisión.
  • Dilemas éticos: El periodismo debe diferenciarse del resto de contenidos digitales por su rigor ético. La velocidad del progreso de la IA exige una reflexión urgente sobre sus dilemas (Retos del fact-checking y la lucha contra la desinformación: amenazas y oportunidades de la inteligencia artificial generativa).
  • Financiación: Es crucial encontrar nuevas formas de financiación para el periodismo de calidad que no dependan de la viralidad o el «clickbait», y que los fact-checkers sean económicamente autónomos para asegurar su independencia.

5.3. Intervenciones Socio-Cognitivas y Alfabetización Mediática

  • Mensajes de precisión: Invitan a evaluar la veracidad del contenido y promueven compartir solo información verídica.
  • Inoculación: Exponer a las personas a estrategias de desinformación y luego aclarar la verdad para «vacunarlas» contra futuros bulos.
  • Fricción: Diseñar intervenciones que obliguen a las personas a detenerse y reflexionar antes de compartir contenido.
  • Normas sociales: Enfatizar que la mayoría desaprueba la difusión de contenido falso para motivar a no compartirlo.
  • Alfabetización digital y mediática: Es crucial para que los individuos desarrollen habilidades críticas para evaluar la veracidad de la información y comprender cómo se crean y propagan las fake news.

5.4. El papel del periodismo y la cooperación

  • Defensa del periodismo de calidad: Es esencial que los periodistas mantengan su deontología profesional, busquen la verdad y la hagan pública, incluso frente a la presión.
  • Colaboración y formación: La cooperación entre periodistas y expertos en IA es vital para desarrollar herramientas de detección.
  • Transparencia: Los medios deben ser transparentes en su labor periodística y en el suministro de fuentes para aumentar la credibilidad.

En conclusión, la lucha contra la desinformación y los deepfakes requiere un enfoque multifacético que combine avances tecnológicos, educación pública y una regulación sólida, con el periodismo de calidad como pilar fundamental en la búsqueda y difusión de la verdad.

Scroll al inicio