Recientemente, hubo un mayor uso de herramientas de inteligencia artificial como Dall-E, Midjourney o Stable Diffusion para difundir desinformación sobre Israel y las empresas que apoyan abiertamente al país en su guerra contra Hamás.
Zefr, una empresa especializada en monitorear contenido de incitación en redes sociales, investigó el fenómeno utilizando una nueva herramienta de inteligencia artificial desarrollada por la compañía y presentará sus hallazgos en la conferencia IMVC en la Expo Tel Aviv el próximo mes.
"Tras los acontecimientos del 7 de octubre, identificamos un aumento de veinte veces en la cantidad de información manipulada en el contexto de Israel y Hamás. Este es el primer caso en el que se observa un uso significativo de la IA con fines de propaganda e incitación", dijo O Levi, director ejecutivo de Zefr.
Identificamos una tendencia creciente en las redes sociales de contenido de video con millones de visitas contra marcas populares asociadas con Israel y llamados a boicotearlas. "Esta campaña de incitación, en última instancia, perjudica al país y nos da una motivación adicional para trabajar en estos temas", añadió.
La compañía colabora con organizaciones de verificación de datos en todo el mundo para mejorar su capacidad de detectar contenido manipulado.
El mundo de la IA experimentó varios cambios y mejoras en los campos de las imágenes falsas y profundas, utilizando inteligencia artificial generativa (GenAI) durante el año pasado. Levi explica dos tipos de uso malicioso de la inteligencia artificial en relación con la creación de imágenes.
El primero involucra imágenes de eventos que nunca sucedieron, "imágenes falsas de destrucción y pérdida, y la mayoría de la gente no puede distinguir entre lo falso y lo real, con la intención de influir en la opinión pública global".
El segundo tipo involucra imágenes destinadas a dañar empresas comerciales como las que apoyan a Israel, llamando a boicotearlas. Estas tienden a presentar el logotipo o producto de la empresa, sumergido en sangre, con la leyenda: "Boicot".
El año pasado, Zefr desarrolló una herramienta de inteligencia artificial única capaz de identificar con precisión imágenes creadas con GenAI, como la imagen de Trump siendo arrestado o el Papa con un chaleco antibalas.
Se trata de una tarea tecnológica compleja que hasta el momento no tuvo éxito. La empresa entrenó su IA en decenas de miles de imágenes auténticas y manipuladas, combinadas con búsqueda semántica en redes sociales, lo que dio como resultado una tasa de detección del 95%, superando las capacidades humanas.
Levi explica que el contenido falso de Internet se clasifica en 12 categorías, que incluyen terror, incitación y noticias falsas. El sistema de Zefr analiza el vídeo, lo clasifica en una de las categorías y también determina su nivel de riesgo. Los anuncios que violan las políticas de las plataformas de redes sociales se les informan para su revisión y eliminación.
El uso principal de la nueva tecnología es proteger a las empresas y redes de campañas falsas para que sus anuncios no estén asociados con incitaciones o videos de conspiraciones falsas.
"Los espectadores los asocian con contenido falso y, como resultado, su reputación se daña. Les ayudamos a bloquear los anuncios falsos", contó Levi.
O Levi fue el fundador de la startup AdVerif.ai, especializada en detectar noticias textuales falsas. En 2022, la empresa fue adquirida por Zefr, que se ocupa de todos los aspectos de la incitación en Internet, principalmente en las redes sociales. Los clientes de la empresa son principalmente anunciantes y marcas globales.