Sergio Hernández, responsable de EFE Verifica: “Como el potencial de la desinformación muchas veces son nuestros sesgos, hace falta poco para manipularnos”

EFE Verifica surge en la agencia pública de noticias española en 2019, con el objetivo de luchar contra la creciente desinformación. En 2020 obtiene  la certificación de la International Fact-Checking Network (IFCN) del Instituto Poynter, que reúne a los principales verificadores a nivel mundial. En 2024 se integra en la red europea de verificadores European Fact-Checking Standards Network (EFCSN). Su responsable, Sergio Hernández (Palma de Mallorca, 1976), es licenciado en Ciencias de la Información y experto en Comunicación y Arte por la Universidad Complutense. Cuenta con una amplia experiencia profesional en prensa, radio y televisión. En esta entrevista conversamos sobre el trabajo de EFE Verifica y los retos de la creciente desinformación.

Sergio Hernández, responsable de EFE Verifica. Foto: Villar López.

EFE Verifica nace en 2019 para responder a la desinformación. ¿Qué balance haces de estos seis años de funcionamiento?

Desde el punto de vista de EFE Verifica, considero que es positivo porque el equipo ha ido creciendo en cuanto conocimientos y habilidades para analizar, detectar y desmentir la desinformación. El panorama de la desinformación también crece mucho y eso es preocupante.

En este sentido, ¿cuáles son los principales agentes de desinformación a nivel internacional que habéis identificado?

Hemos publicado varias informaciones sobre campañas de desinformación prorrusas. Si pones “prorruso” o “prorrusa” en el buscador de EFE Verifica, vas a encontrarlas todas. Es una clara preocupación. Hoy es noticia [la entrevista se realizó el 22 de mayo] -lo ha dado EFE y estamos haciendo una versión para EFE Verifica- que Seguridad Nacional atribuye a Rusia las campañas de desinformación durante la Dana, en el contexto de guerra híbrida y desinformación, como han acreditado el Parlamento Europeo, el Servicio Europeo de Acción Exterior, etc. Y si no podemos atribuirlo directamente a Rusia, tiene su origen en actores alineados con las narrativas favorables a los intereses del Kremlin, que es claramente uno de los actores internacionales.

También hemos abordado la desinformación china en Latinoamérica, aunque no lo hemos visto tanto en Europa. No quiere decir que no exista, sino que no lo hemos detectado.

A escala nacional, ¿cuáles son los principales agentes de desinformación en España?

Uno de los problemas que tenemos es la atribución. Muchas veces no podemos atribuir. Genéricamente, cuando hablamos de desinformación planificada, podemos hablar de actores con intereses políticos o económicos, o con una mezcla de ambos.

Parte del equipo de EFE Verifica en la redacción de Madrid. Foto: Cedida.

¿Cuántas personas integran EFE-Verifica? ¿Cuál es el procedimiento habitual de trabajo?

Somos nueve personas, seis en Madrid, tres en Latinoamérica; hay dos compañeros en Bogotá y otro en México.

Sobre cómo trabajamos, en la web aparece todo en equipo y nuestros perfiles. Por nuestra vinculación a la IFCN y a la EFCSN, debemos ofrecer información pública de nuestro equipo. Y la metodología es la que nos dictan estas asociaciones y redes.

En el día a día, varias personas miran constantemente redes sociales. Nos fijamos mucho en qué habla la gente en las redes. Eso no significa que no estemos también pendientes de otro tipo de desinformación que puede generarse con un origen diferente, pero, al final, todo acaba en las redes sociales. Si es un político haciendo unas declaraciones o un medio de comunicación realiza algún tipo de mala praxis que implica una desinformación, también acaba en las redes sociales.

No nos limitamos a las redes sociales, aunque ocupan el 90% de nuestra actividad. Es algo orientativo, no lo tengo cuantificado, pero supone la mayor parte. Mientras estamos mirando las redes sociales compartimos un documento, una hoja de cálculo de Google, donde vamos apuntando aquellas afirmaciones que nos parecen sospechosas de ser falsas, y los enlaces de las publicaciones que hemos encontrado en la mayoría de las redes sociales.

Analizamos constantemente las redes sociales de Meta (Facebook, Instagram y Threads). Somos de los verificadores que firmamos un contrato con WhatsApp y tenemos un servicio de consultas en ese canal. Si bien podemos monitorizar las redes abiertas, WhatsApp es un sistema encriptado y tienen que ser los usuarios de WhatsApp los que nos hagan llegar los mensajes.

Además, X es una red que estamos monitorizando mucho. Y TikTok y Telegram; a veces nos adentramos en ellas para ver cómo se han difundido algunos contenidos, aunque no tenemos una evaluación tan exhaustiva como las otras, porque son las que, seguramente, ocupan a más gente y donde en la monitorización es más fácil detectar un contenido preocupante. Luego, con ese listado, vemos qué es muy viral y qué nos parece una amenaza para la sociedad.

Lo hacemos de esa forma por dos motivos. Una, porque si es viral ya tiene un componente de peligro mayor ya que afecta a más gente. Además, no queremos promocionar lo que no se ha extendido. No vamos a darle una publicidad indirecta con una verificación.

Actuamos sobre cosas que ya están en el debate público, de lo que habla la gente. Y lo que estás propagando es los hechos y datos verdaderos sobre ese asunto.

En cuanto a los contenidos que suponen un peligro es uno de los clásicos, por ejemplo, la desinformación relacionada con la salud porque directamente te puede matar. Una mala decisión sobre un tema de salud te puede llevar a tomar un fármaco no adecuado, a obviar recomendaciones médicas, o a evitar vacunarte cuando es lo mejor que puedes hacer para protegerte a ti y a tu entorno. Eso se vio claramente durante la pandemia.

A la gente le preocupa la salud y muchas veces toma decisiones malas porque empieza a creer en cosas que no tienen evidencias científicas suficientes. Estamos centrados también en contenidos que extienden el discurso del odio con discriminación xenófoba y racista, machista, LGTBIófoba… Nunca son opiniones, sino afirmaciones sobre hechos que podemos verificar. Y también contenidos políticos, sobre todo en períodos electorales, que nos preocupa bastante. Y medio ambiente, otro de los grandes clásicos de la desinformación.

Las herramientas de inteligencia artificial se han convertido en un aliado al identificar la procedencia de las imágenes, o si están fabricadas con la inteligencia artificial, los deepfakes, etc. ¿Cómo utilizan en EFE Verifica las herramientas de IA en esos procesos?

Como un apoyo y no una evidencia. Porque el problema de las herramientas de detección de IA es que no dan certezas. Dan aproximaciones. Y tienen un problema de partida: para entrenar una herramienta de IA, la entrenas durante meses con contenidos, y cuando la pruebas, te detecta bien lo que era vigente hace unos meses. Pero como la tecnología va cambiando, tiene más problemas para detectar lo nuevo. Los verificadores necesitamos certezas para decir que algo es falso o verdadero, no podemos usar esas herramientas como una prueba. Las utilizamos como un apoyo, como contexto, pero siempre las evidencias están en otro lado.

Cada vez resulta más difícil de verificar si un vídeo que llega a través de una red social ha sido fabricado o se trata de una grabación real. ¿Crees que cada vez va a ser más difícil para los periodistas, y para los verificadores, identificar esos contenidos que cada vez están mejor hechos y cuya procedencia es más complicada de detectar?

Así es. Insisto en algo mencionado en la respuesta anterior. Hay que buscar otras vías para las evidencias. Hay que certificar si la persona que supuestamente ha hecho algo o ha dicho algo, si estaba ahí en ese momento, o si hay pruebas de que estaba en otro sitio, etc.

Al ser indistinguible de la realidad, creo que va a generar un cambio de la sociedad con relación a la percepción de la realidad. Y suelo decir que el descubrimiento de la fotografía cambió la historia del arte, y la pintura dejó de ser figurativa. Y cambió a las vanguardias. Va a haber un cambio en la sociedad y vamos a acabar aprendiendo que muchas de las cosas que vemos y oímos y ahora damos por ciertas, pueden ser fantasías. Nos acostumbraremos a ello y sabremos que habrá veces que pueden ser verdad y otras serán falsas.

Eso tiene un potencial tremendo para desinformar y veremos mucha desinformación sobre eso. Aunque no la estamos viendo tanto como se pensaba. No ha sido un aluvión. Aunque va creciendo. Y lo estamos viendo, por ejemplo, en contenidos relacionados con estafas que utilizan a presentadores del Canal 24 Horas, de los que hay muchas horas de vídeo y audio para entrenar algoritmos, para intentar estafar a consumidores en criptomonedas. ¿Por qué aún no vemos tanto contenido desinformativo generado con IA? Porque todavía resulta más rentable hacerlo de otras formas más baratas, fáciles y rápidas.

Como el potencial de la desinformación muchas veces son nuestros sesgos, hace falta poco para manipularnos. Como la IA es tan potente, va a ser un cambio importante. Ya hay varios casos preocupantes, aunque a veces no han sido tan sofisticados que nos hayan podido desacreditar, pero lo hemos visto en elecciones en Eslovaquia, en Estados Unidos, etc. Y hay contenidos ultra falsos o deepfakes utilizados contra mujeres, muchas veces para callarlas o denigrarlas, ya sea Greta Thunberg, la activista ecologista sueca, o Taylor Swift, que se pronunció a favor del Partido Demócrata en las últimas elecciones.

Coincido en que es fundamental que la gente aprenda poco a poco a discernir si los contenidos son auténticos o están fabricados…

Mi pronóstico se basa en una intuición que puede ser completamente falsa. Hablo de un cambio histórico, de que la IA se va a utilizar de forma constante. A lo largo de las próximas décadas, la sociedad, simplemente por puro mecanismo de supervivencia, reaccionará al respecto.

Vemos que hay grandes eventos desinformativos donde la gente aprende que circula muchísima desinformación evidente. En el caso de la Dana, todo el mundo estaba hablando de desinformación porque había tantas falsedades, que la gente tomaba conciencia del problema. Creo que la gente tomará conciencia de forma intuitiva. Además, cuando te mientan varias veces y seas consciente de que te han engañado, uno aprenderá a desconfiar de esos contenidos. Ya no hablo tanto de alfabetización mediática, que, por supuesto la consideramos una herramienta indispensable en la lucha contra la desinformación, como de la pura experiencia de vivir.

Al igual que hemos aprendido a convivir con Internet, aunque con una convivencia conflictiva porque la desinformación en parte es resultado del uso malicioso de Internet, creo que también ocurrirá lo mismo con la IA. Hemos aprendido a convivir con Internet, como antes aprendimos a convivir con la radio y la televisión, y con la IA generativa pasará algo parecido.

Fotograma de La Riada, un episodio de la serie “Noticias Falsas, Víctimas Reales”.

Lanzasteis el podcast ‘Con Check’, una newsletter en WhatsApp y una sección en el Canal de YouTube de EFE. Recientemente habéis emitido el primer episodio ‘La Riadade la serie ‘Noticias Falsas, Víctimas Reales’. ¿Qué estrategia persigue la presencia de EFE Verifica en estos canales y qué resultados estáis obteniendo?

La filosofía general de la difusión de los contenidos tiene que ver con que las verificaciones y la información de calidad han de estar en los mismos circuitos donde se genera la desinformación. Por ese motivo, siempre que publicamos un artículo lo movemos en todas las redes posibles. Los contenidos audiovisuales muchas veces son más efectivos que los propios artículos, así que también gracias a todos los recursos de EFE, podemos hacer una gran producción audiovisual comparado con otros compañeros.

Déjame precisar una cosa sobre el equipo. Somos nueve, como te decía, pero tenemos una gran ventaja con respecto también a otros compañeros, que nosotros nos beneficiamos del conjunto de nuestra empresa. Por ejemplo, ayer publicamos un explicativo que había hecho una compañera de la delegación de Jerusalén.

A veces utilizamos la red de corresponsales mundial de EFE para verificar contenidos en distintos sitios, para pedirles que hagan gestiones en concreto, o, por ejemplo, la delegación de Bruselas nos ha ayudado con verificaciones relativas a la Unión Europea. Tenemos una red que nos ayuda a ser más eficientes y a llegar más lejos.

Los casos de ‘Con Check’ y ‘Noticias Falsas, Víctimas Reales’ son concursos públicos que la IFCN abrió y los ganamos. Tenemos previsto organizar seis talleres de alfabetización mediática para comunidades vulnerables, impartidos por la asociación Learn To Check. Está dentro del proyecto a escala mundial. Hemos empezado con La Dana y en los próximos meses vamos a publicar historias de víctimas de la desinformación en Chile, Brasil, India, etc. Podemos hacerlo porque tenemos delegaciones en todos esos sitios.

Tengo la sensación de que los verificadores en España hacéis todo lo que podéis, pero es un trabajo ingente para ese tsunami de desinformación diaria. ¿Cómo colaboráis entre vosotros y con los verificadores de América Latina o del resto de Europa?

Empiezo por la reflexión que hacías sobre el tsunami. Creo que el propósito no puede ser acabar ni acotar toda esa desinformación porque, como dices, es algo tan inabarcable que no consiste tanto en eso, como en aportar información de calidad.

Esto es una inundación, de hecho, uso la metáfora de que hay que construir diques frente a la desinformación, que se propaga gracias a nuestros sesgos cognitivos. Los humanos tenemos sesgos cognitivos porque así funciona nuestro cerebro. Mediante la alfabetización mediática se pueden construir diques en nuestras mentes.

Hay un propósito más realista para hacer frente a la desinformación: aportar datos y hechos veraces por medio de artículos periodísticos y también concienciar sobre el peligro de la desinformación y sobre nuestras vulnerabilidades, que empiezan por nosotros mismos, y dar a la gente herramientas para que tenga pensamiento crítico y luche contra esa desinformación.

Colaboramos mucho entre nosotros. El panorama de la lucha contra la desinformación es muy heterogéneo, convivimos organizaciones muy distintas. Eso tiene una ventaja porque no competimos entre nosotros. Tenemos una competencia oblicua, no directa, así que no hay muchas fricciones. No hay una sensación de competencia muy grande, al revés. Hay una sensación de camaradería, de lucha conjunta contra el mal, de servicio público.

Ese ámbito de colaboración se da a escala nacional, europea y mundial. Tenemos algo de tribu, estamos viendo constantemente a la misma gente en un montón de encuentros, varias veces al año. Por medio de la EFCSN y del EDMO, etc. te ves en Bruselas. Con los compañeros portugueses y españoles nos vemos en IBERIFIER. Con la IFCN nos vemos en las cumbres de la GlobalFact, y se construyen alianzas y relaciones.

Hay iniciativas colaborativas para, entre todos, detectar narrativas. Tenemos ámbitos de colaboración en la IFCN, con proyectos como Elections24Check y nos beneficiamos conjuntamente de ayudas de las plataformas o de la Unión Europea. Y en los observatorios como EDMO e IBERIFIER. En IBERIFIER estamos nutriendo una base de datos con todas las verificaciones, que los académicos podéis estudiar para ver las tendencias y otros fenómenos relacionados con la desinformación, y participamos en debates, proyectos e investigaciones.

Hay iniciativas interesantes como Comprobado, una alianza que se dio en 2019 y 2023 para las elecciones generales, con un resultado en 2023 más satisfactorio que en 2019 porque todo estaba más hecho y porque la sociedad es más consciente del problema de la desinformación.

En el caso de Comprobado, estábamos Maldita, Newtral, Verificat y Verifica RTVE. Nos pusimos de acuerdo compartiendo información sobre qué estábamos investigando en cada momento, con libertad para sacar nuestra propia investigación y, si no, investigar otra cosa para ser más eficientes.

Nosotros republicamos cosas de los compañeros y ellos republicaron contenidos nuestros. Y los compartimos gratuitamente con los periódicos locales, nacionales, emisoras de radio o televisiones que se unieron. Por ejemplo, estaban La Vanguardia, Cadena Ser, la televisión de Castilla y La Mancha, Heraldo de Aragón, las cabeceras del Grupo Última Hora…

Además, compartimos debates, sesiones o clases. Hace poco estuve en una mesa redonda con Maldita y Verifica RTVE, en un acto organizado por Radio Televisión Española con el Parlamento Europeo. Esta colaboración es constante.

EFE Verifica forma parte del Observatorio Ibérico de Medios Digitales (IBERIFIER). En su informe de 2024 sobre Tendencias en el ecosistema mediático de España y Portugal, en una sección que coordinó el investigador Miguel Crespo, se decía: “El crecimiento exponencial de la IA será la principal tendencia durante los próximos años con implicaciones en términos de cantidad y complejidad de la desinformación, una mayor polarización política y el aumento de las amenazas a las democracias”. ¿Compartes este diagnóstico? ¿Es la desinformación una de las grandes amenazas para las democracias?

Sí, todo hace pensar que esa frase va a cumplirse. Por el potencial que tiene la IA para engañarnos y su capacidad de desarrollo en los próximos años. Ya hay efectos palpables de que la desinformación es una de las amenazas para la democracia. Preocupa a la Unión Europea y forma parte de la pugna política de la administración estadounidense con la Comisión Europea.

Es una amenaza para las sociedades democráticas porque es un arma de guerra híbrida. Desde dentro de los países, sin necesidad de recurrir a potencias extranjeras, se usa para erosionar la confianza en las instituciones, permite propagar el discurso del odio y sirve para estafar porque los ciudadanos son muy dependientes de las pantallas.

Es un error dividir entre realidad virtual y realidad presencial. Todo es lo mismo. Nuestra vida está entera en las plataformas y las plataformas tienen muchos datos de nosotros. No solo con la IA generativa sino con otros tipos de IA que permiten a las plataformas obtener datos sobre nosotros para elaborar contenido a medida de nuestros gustos y profundizar en esos cambios sociológicos que están formateando nuestra realidad y cambiándola por completo.

Esta revolución va a ser un cambio mayor que internet. Como mínimo es un cambio que se añade a la capa ya de realidad que ha transformado nuestras vidas, con el potencial que tiene internet para hiperconectarnos con todo lo que supone la IA. Con internet ha cambiado todo: la forma de viajar, consumir medios de comunicación, movernos en la ciudad, tener relaciones sentimentales… Con la IA el cambio será una nueva imprenta, una nueva revolución. Hay expertos que sostienen que, a escala de conocimiento, la IA generativa no supone gran cosa, pero desde un punto de vista sociológico es muy importante e incrementa la amenaza de la desinformación a nuestras democracias, como ya estamos constatando.

Entradas recientes

Sergio Hernández, responsable de EFE Verifica: “Como el potencial de la desinformación muchas veces son nuestros sesgos, hace falta poco para manipularnos”

Jose A. García Avilés

Al periodismo hay que amarlo

Jose A González Alba

Aplicaciones de la inteligencia artificial en las fases menos visibles de la producción de contenidos periodísticos

Félix Arias

Fuera de los medios tradicionales: periodistas independientes en la era de la suscripción y los boletines (2)

Miguel Carvajal

Innovación narrativa: un reportaje sobre los jóvenes que se aíslan del mundo

Jose A. García Avilés

31 razones para contar historias en clase

Jose A. García Avilés

Universidad con Sello de Excelencia Europea

La Universidad Miguel Hernández de Elche consiguió el Sello de Excelencia Europea 500+ en 2004, y posteriormente fue renovada en dos ocasiones consecutivas, la primera en 2007 y la segunda en 2009.