Era abril de 2018, y un día como cualquier otro hasta que llegó el primer mensaje de texto preguntando “¡¿Ya viste esto?!” con un enlace a YouTube. Segundos después, el expresidente Barack Obama aparecía en la pantalla pronunciando un discurso en el que proclamó que el presidente Donald Trump “es un (improperio) total y completo”.
Excepto que en realidad no fue el ex presidente Obama. Era un vídeo deepfake producido por Jordan Peele y Buzzfeed. El vídeo, en su totalidad, tenía como objetivo dar a conocer las capacidades de IA que teníamos en ese momento para crear cabezas parlantes con locuciones. En este caso, Peele utilizó a Barack Obama para transmitir un mensaje de ser cautelosos, cautelosos y ceñirse al uso de fuentes de noticias confiables.
Eso fue hace seis años y medio, o varios eones en el tiempo de la IA.
¿Cómo podemos confiar en alguna fuente ahora?
Desde entonces, hemos logrado innumerables avances en la tecnología de IA. Literalmente, hay pasos agigantados respecto a la tecnología que Peele utilizó para crear su deepfake de Obama. GPT-2 se presentó al público en 2019 y podría usarse para generar texto con un simple mensaje.
En 2021 se lanzó DALL-E, una herramienta de generación de imágenes de IA capaz de engañar incluso a algunos de los ojos más agudos con algunas de sus imágenes fotorrealistas. En 2022 se vieron aún más mejoras en sus capacidades con DALL-E 2. MidJourney también se lanzó ese año. Ambos toman entradas de texto para el tema, la situación, la acción y el estilo para generar obras de arte únicas, incluidas imágenes fotorrealistas.
Una foto de mi perro con rayas de tigre saltando de un tobogán después de atrapar un frisbee. Es broma, en realidad es una imagen generada por IA usando ImageFX de Google, con marca de agua con SynthID.
En 2024, la IA generativa se habrá vuelto completamente loca. Make-A-Video de Meta permite a los usuarios generar videos de cinco segundos de duración solo a partir de descripciones de texto, y el nuevo Movie Gen de Meta ha llevado la generación de videos con IA a nuevas alturas. OpenAI Sora, Google Veo, Runway ML, HeyGen… Con indicaciones de texto, ahora podemos generar cualquier cosa que se nos ocurra. Quizás incluso más, ya que los videos generados por IA a veces se vuelven locos con nuestras entradas, lo que genera imágenes bastante fascinantes y psicodélicas.
Synthesia y DeepBrain son otras dos plataformas de vídeo de IA diseñadas específicamente para ofrecer contenido similar al humano utilizando avatares generados por IA, muy parecidos a los presentadores de noticias que transmiten las últimas noticias en su canal local favorito; hablando de eso, todo su canal local pronto podría estar generado por IA. – como el notable Canal Uno. Y hay muchísimos más.
¿Qué es real y qué es falso? ¿Quién puede notar la diferencia? Ciertamente no tu tía en Facebook que sigue compartiendo esas imágenes ridículas. Los conceptos de verdad, realidad y veracidad están bajo ataque, con repercusiones que repercuten mucho más allá de la pantalla. Entonces, para darle a la humanidad alguna oportunidad contra el inminente tsunami de mentiras, Google DeepMind ha desarrollado una tecnología para marcar e identificar medios generados por IA: se llama SynthID.
SynthID puede separar el contenido auténtico legítimo del contenido generado por IA colocando marcas de agua digitales en el contenido de IA de una manera que los humanos no podrán percibir pero que será fácilmente reconocible por el software que busca específicamente las marcas de agua.
Esto no es sólo para vídeo, sino también para imágenes, audio e incluso texto. Lo hace, dice Deepmind, sin comprometer la integridad del contenido original.
Marca de agua de IA de texto
Los modelos de lenguajes grandes (LLM) como ChatGPT utilizan “tokens” para leer entradas y generar salidas. Los tokens son básicamente parte o palabras o frases completas. Si alguna vez ha utilizado un LLM, probablemente haya notado que tiende a repetir ciertas palabras o frases en sus respuestas. Los patrones son comunes en los LLM.
Es bastante complicado cómo SynthID marca el texto generado por IA, pero en pocas palabras, manipula sutilmente las probabilidades de diferentes tokens a lo largo del texto. Podría modificar diez probabilidades en una oración, cientos en una página entera, dejando lo que Deepmind llama una “firma estadística” en el texto generado.
SynthID utiliza complejos algoritmos de predicción de tokens como marca de agua para archivos de texto
Todavía resulta perfectamente legible para los humanos y, a menos que tengas habilidades de reconocimiento de patrones al borde de lo paranormal, no tendrías forma de saberlo.
Pero un detector de marcas de agua SynthID puede detectarlo, con mayor precisión a medida que el texto se hace más largo, y dado que no hay patrones de caracteres específicos involucrados, la marca de agua digital también debería ser bastante robusta contra cierto grado de edición de texto.
Marca de agua AI de audio y vídeo
El contenido multimedia debería ser considerablemente más sencillo, ya que en los archivos se puede codificar todo tipo de información en artefactos invisibles y no escuchados. Con el audio, SynthID crea un espectrograma del archivo y coloca una marca de agua que es imperceptible para el oído humano, antes de convertirlo nuevamente en forma de onda.
Espectrograma con marca de agua de SynthID de un archivo de audio
Las fotos y los vídeos simplemente tienen marcas de agua incrustadas en los píxeles de la imagen de forma no destructiva. La marca de agua sigue siendo detectable incluso si la imagen o el vídeo se han modificado con filtros o recortes.
La marca de agua SynthID es imperceptible para el ojo humano, como se muestra aquí
Google ha abierto la tecnología SynthID y está animando a las empresas que crean herramientas de IA generativa a utilizarla. Aquí hay más en juego que simplemente engañar a las personas con falsificaciones de IA: las propias grandes empresas deben asegurarse de que el contenido generado por IA pueda distinguirse del contenido generado por humanos por una razón diferente, para que los modelos de IA del mañana estén entrenados en ‘ contenido real generado por humanos en lugar de tonterías generadas por IA.
Si los modelos de IA se ven obligados a comer demasiado de sus propios excrementos, todas las “alucinaciones” que prevalecen en los primeros modelos actuales pasarán a formar parte de la comprensión de la verdad fundamental de los nuevos modelos. Google definitivamente tiene un gran interés en asegurarse de que el próximo modelo Gemini esté entrenado con los mejores datos posibles.
Sin embargo, al final del día, los esquemas como SynthID son en gran medida opcionales y, como tales, las empresas que optan por no participar y cuyos textos, imágenes, videos y audio GenAI son mucho más difíciles de detectar, tendrán un argumento de venta convincente. para ofrecer a cualquiera que realmente quiera tergiversar la verdad o engañar a la gente, desde tipos que interfieren en las elecciones hasta niños que no se molestan en escribir sus propias tareas.
Quizás los países podrían legislar para hacer obligatorias estas tecnologías de marcas de agua, pero entonces seguramente habrá países que optarán por no hacerlo y operaciones turbias que construirán sus propios modelos de IA para eludir tales restricciones.
Pero es un comienzo, y si bien es posible que usted o yo todavía nos engañemos inicialmente con los videos de Taylor Swift en TikTok que regalan ollas y sartenes, con la tecnología SynthID podremos verificar su autenticidad antes de pagar nuestra tarifa de envío de $ 9,99.
Fuente: Google DeepMind