Desinformación visual: cómo detectar imágenes falsas o manipuladas

Los contenidos audiovisuales se han convertido en el foco de gran parte de las estrategias de desinformación actuales. La aparición de herramientas de edición cada vez más sofisticadas, unida a los continuos avances en las técnicas de inteligencia artificial generativa, han dado lugar a un escenario comunicativo en el que se cuestiona la autenticidad y veracidad de lo que vemos. En los últimos meses hemos sido testigos de una oleada de imágenes falsas sin precedentes, difundidas en las redes sociales. Por suerte, algunas herramientas y trucos pueden ayudarte a detectarlas, como explicamos en este artículo.

Imagen generada con Bing Image Creator

Imágenes manipuladas o descontextualizadas 

La búsqueda inversa de imágenes es una potente herramienta para detectar fotografías manipuladas o descontextualizadas. Esta técnica permite buscar imágenes en línea utilizando un archivo como consulta en vez de palabras clave. La mayoría de los buscadores, como Google Imágenes o Yandex Images, ofrecen esta posibilidad aunque existen herramientas específicas que permiten acotar y perfeccionar la búsqueda:

TinEye. Empresa de búsqueda y reconocimiento de imágenes especializada en visión artíficial, reconocimiento de patrones, redes neuronales y aprendizaje automático. Surgió como un simple archivo de imágenes y se ha convertido en una potente herramienta de verificación. Su API TinEye analiza más de 60 millones de imágenes en tiempo real, facilitando la detección de imágenes manipuladas e infracciones de los derechos de autor. Algunas de sus funcionalidades más interesantes son TinEye Alerts, un sistema de seguimiento que detecta cuando ciertas imágenes aparecen online, y MatchEngine, centrado en la detección de contenido duplicado o modificado. Cuenta con una extensión para Chrome, Firefox, Edge y Opera.

InVid Project. Se trata de un conjunto de aplicaciones que permiten detectar, autenticar y comprobar la fiabilidad y exactitud de archivos de vídeo e imágenes difundidas a través de las redes sociales. El proyecto, en el que participan universidades, medios de comunicación y empresas tecnológicas de diferentes regiones de Europa, tiene como objetivo ofrecer una “navaja suiza” de verificación con el objetivo de ahorrar tiempo y trabajar de forma más eficiente en las tareas de verificación. Actualmente cuentan con una versión web, una extensión de Chrome y una aplicación móvil disponible para iOS y Android. Las técnicas de verificación empleadas están basadas en el libro “Verification Handbook”, un manual de verificación elaborado por expertos y periodistas de la BBC, Storyful, ABC y Digital First Media, entre otros. Puedes descargar su versión en español aquí

Foresincally. Una herramienta más compleja, pero también más completa que otras alternativas similares. Basada en técnicas de “investigación forense” de imágenes, permite detectar retoques digitales mediante funcionalidades como el análisis de ruido, la detección de zonas “clonadas”, los cambios en la iluminación y el acceso a los metadatos e información de geolocalización. Puedes consultar un videotutorial de manos de su creador aquí

Verification Toolbox de FirstDraftNews. Una sencilla herramienta web que permite investigar el origen de las imágenes y vídeos alojados en redes sociales como YouTube, Twitter o Facebook. Aunque el proyecto FirstDraftNews cesó su actividad en 2022, cuenta con numerosos recursos de monitorización, verificación y alfabetización mediática que merece la pena conocer. Entre ellos, su sección de “mini cursos” online, y las guías “Cómo verificar información encontrada en línea” y “Comprender el desorden informativo”. 

Get-Metadata y ExtractMetada. A menudo encontramos imágenes en línea que, pese a no estar manipuladas, en realidad no muestran aquello que nos quieren hacer creer. En estos casos, analizar la ubicación y fecha en la que se tomó la fotografía suele ser una buena solución. Las herramientas gratuitas Get-Metadata y ExtractMetada sirven para comprobar los metadatos de imágenes, vídeos, documentos, audios y, en el caso de Get-Metadata, incluso e-books. Su funcionamiento es muy sencillo: tan solo tienes que subir el archivo o indicar su url y esperar. El programa te mostrará todos los datos asociados gracias a la información XMP, EXIF e ICC.

El peligro de los deepfakes y las imáganes generadas con IA

En el blog hemos analizado los retos que supone la proliferación de deepfakes, una de las estrategias de desinformación más sofisticadas. Se trata de una técnica mediante inteligencia artificial que emplea algoritmos de aprendizaje automático y redes neuronales para alterar o reemplazar el rostro y la voz de una persona a partir de un vídeo existente. Mediante el uso de grandes cantidades de imágenes y vídeos de la persona que se desea imitar, esta tecnología permite crear contenido audiovisual manipulado sumamente realista y convincente. Una de las principales preocupaciones es, precisamente, su enorme potencial dañino a la hora de crear contenido falso para desacreditar figuras públicas o simular discursos políticos con un gran realismo. 

En 2021, la EUROPOL ya alertaba de los riesgos que supone un mal uso de la inteligencia artificial, en especial en lo que respecta a la creación de contenido audiovisual. En su informe “Malicious Uses and Abuses of Artificial Intelligence”, elaborado junto al Instituto Interregional de Investigación sobre Justicia y Crimen de las Naciones Unidas (UNICRI), definen a los deepfakes como “un arma poderosa en las guerras de desinformación actuales”, ya que abren un nuevo paradigma en el que ya no se puede confiar en lo que se ve o se escucha. 


Sin embargo, la inteligencia artificial también puede ser la solución para frenar el avance de los contenidos manipulados. La compañía estadounidense Intel, en una parte de su proyecto Trusted Media, incorporó en uno de sus procesadores la tecnología de detección de deepfakes desarrollada por el investigador Ilke Demir y el profesor de la Universidad Estatal de Nueva York, Binghamton Umur Ciftci. Esta tecnología, llamada FakeCatcher, utiliza técnicas de fotopletismografía en busca de “señales biológicas” (como el flujo sanguíneo de la piel) para determinar si quien aparece en la imagen es una persona real o está generada de forma virtual. Los investigadores aseguran obtener resultados superiores al 90% en todos los datasets empleados en el estudio

Otra iniciativa similar es el proyecto DepthFake, llevado a cabo por un grupo de investigación de la Sapienza Università di Roma. En este caso, los investigadores combinan las técnicas tradicionales de análisis del color con los mapas de profundidad para detectar inconsistencias en las imágenes. Mientras que los mapas de profundidad proporcionan información tridimensional sobre una escena, las imágenes RGB ofrecen información acerca del color. Al combinar estas dos fuentes de datos, los algoritmos de detección analizan las características y anomalías específicas que pueden revelar la presencia de una imagen falsa o manipulada. Por ejemplo, mediante cambios en la iluminación, la consistencia espacial o las distorsiones en la perspectiva. 

Sin embargo, aunque ambas técnicas facilitan el proceso y son clave a la hora de analizar un gran volumen de datos, algunos trucos pueden ayudarnos a detectar deepfakes de manera más “tradicional”. Los expertos coinciden en que, cuando entra en juego la inteligencia artificial, la respuesta está en los detalles. Los ojos son el primer elemento a tener en cuenta. El número de parpadeos y la forma en que lo hace (a menudo forzada y poco natural), pueden darnos una pista de que algo anda mal. Otro detalle importante es el interior de la boca. Las tecnologías de creación de deepfakes tienen problemas a la hora de reproducir la lengua y los dientes cuando la persona está hablando. Las texturas, el número y la forma de los dientes, son otro aspecto clave. Además, si la persona es famosa, podemos fijarnos en otros detalles como la desaparición o aparición de lunares, líneas de expresión o vello facial poco realista. 

¿Y qué ocurre con las fotografías generadas mediante inteligencia artificial? Eso nos daría para otro artículo. Por ahora, aquí van algunas pinceladas. Al igual que sucedió con los deepfakes, la reciente oleada de fotografías generadas con IA plantea nuevos retos, dudas e incertidumbres. Mientras diversos organismos e instituciones internacionales debaten sobre cuál es la mejor forma de proceder, numerosos expertos en el ámbito de la verificación comienzan a publicar guías y pautas para ayudar a la sociedad a detectar este tipo de imágenes. En español, son especialmente valiosas las propuestas de Maldita, Newtral y Chequeado


Este artículo es el resultado de la colaboración de la investigadora Alba García Ortega en el proyecto europeo IBERIFIER, un observatorio financiado por la Comisión Europea para la investigación sobre el ecosistema mediático y la lucha contra la desinformación en España y Portugal.

Entradas recientes

Eva Belmonte (Civio): “Cuando cuento qué pasa con las ayudas públicas destinadas a la gente que más lo necesita, me siento útil como periodista”

Jose A. García Avilés

Los influencers de noticias y sus comunidades: ¿Por qué los ‘no periodistas’ están eclipsando a los medios?

Dámaso Mondéjar

Ismael Nafría, periodista y consultor: “Lanzar un medio de comunicación es posible hoy en día. No es una quimera, es una realidad demostrada”

Jose A. García Avilés

Demo Peláez, creador de Journo: ”La IA debe ayudarnos a llegar a estándares más altos de periodismo”

Félix Arias

Miriam Hernanz (Prisa Vídeo): “Vemos el vídeo como la palanca transformadora de los medios”

Jose A. García Avilés

Un proyecto nacido en el MIP: “Repítemelo otra vez”, atizar el estigma de la pérdida auditiva a través del video social

Silvia Cobo

Universidad con Sello de Excelencia Europea

La Universidad Miguel Hernández de Elche consiguió el Sello de Excelencia Europea 500+ en 2004, y posteriormente fue renovada en dos ocasiones consecutivas, la primera en 2007 y la segunda en 2009.