La nueva IA que puede manipular tu percepción sin que lo notes
Seguro viste algún contenido en la última semana que fue irreal, pero no te diste cuenta. El crecimiento del contenido creado con inteligencia artificial va en aumento.
El texto fue el primer paso, pero en las últimas semanas Gemini dio un paso crucial con el lanzamiento de un nuevo modelo de imágenes llamado Nano Banana Pro, que crea fotografías indistinguibles de la realidad.
¿Cómo darnos cuenta de que es un contenido hecho con IA? ¿Qué impacto puede tener en nuestra piscología y facultades cognitivas? ¿Cómo impacta en la democracia?
Voy a intentar darte respuestas sobre esto, pero primero, diagnostiquemos la situación.
Bienvenidos a Nueva Pestaña.
Nueva pestaña N° 53
Nano Banana es visto como la amenaza más seria a Photoshop. Este modelo fue presentado el 26 de agosto.
Con simples prompts, podés pedirle modificaciones que hasta hace un año parecían ciencia ficción: modificá la iluminación de una fotografía, poné estas prendas de ropa a esta persona, hacé que Montevideo parezca nevado, transformá la postura de este individuo, entre otro sinfín de pedidos.
Pero el 20 de noviembre pasado, apenas tres meses más tarde, Google mejoró su creación para hacerla más indistinguible de la realidad. Ahora entiende de mejor forma conceptos, contexto, relaciones espaciales, coherencia entre objetos y personas, luz, perspectiva, composición.
Entre otras cosas, mejoró la adherencia al prompt (significa que cumple y respeta de forma más cercana lo que vos le pedís), mejora la calidad y la hace más creíble.
Y si no, mirá este ejemplo que se viralizó:
nanobananaproEn la primera imagen, parece menos creíble que sea IA porque la piel da la impresión de ser más “plasticosa”, sintética. En la segunda, todo parece fluir mucho más natural: desde la iluminación del lugar hasta la forma en que tiene el pelo.
¿Cómo darte cuenta?Paralelamente al lanzamiento de Nano Banana Pro, Google lanzó una herramienta llamada SynthID. ¿Qué es? Es una tecnología desarrollada por Google que permite insertar marcas de agua digitales invisibles directamente en el contenido generado por sus modelos de inteligencia artificial.
En otras palabras, todas las imágenes que se crean con la IA de Google tienen algún código que no ves y que no es perceptible para el ojo humano, pero sí detectable para Google, lo que permite determinar si es IA o no.
Podés probarla gratis. Entrás a gemini.google.com (o en la app misma), apretás la tecla “@” y luego escribís SynthID. Adjuntás la foto en cuestión y te hace un análisis general que te informa si fue hecha con IA o si fue modificada. En las que creé con Google no falla nunca. Si subís otra creada con ChatGPT, te hace un análisis general como si se lo preguntaras a cualquier sistema de IA.
El problema de esto es cómo se puede “protocolizar” algo así para que sea detectable por todas las inteligencias artificiales. Es decir, que todas las imágenes creadas con IA tengan la misma “marca de agua”.
La dificultad de esto se da por dos razones:
Porque todas están intentando fidelizar a los usuarios con modelos cada vez más robustos, usables y creíbles.
Por esto que describió Carlos Santana, uno de los divulgadores de IA más populares en habla hispana. Él reveló que este tipo de tecnologías no funciona con los modelos de código abierto. Por si lo desconocías, estos modelos se ejecutan localmente, sin censura ni control, y no se les puede imponer la obligación de incluir una marca de agua, lo que mantiene viva la problemática.
Acá podés ver otra diferencia entre el modelo Nano Banana (izquierda) vs Nano Banana Pro (derecha) ante el mismo prompt (Escena realista de la persona que está en la foto adjunta sentado en una mesa de madera en un bar acogedor de Montevideo, tomando una cerveza fría. Luz cálida ambiente, reflejos sutiles en el vaso y sombras suaves. El bar tiene un ambiente típico uruguayo: afiches viejos, luces tenues y personas conversando al fondo. El hombre viste de manera casual, postura natural, expresión relajada. Estilo fotográfico documental, colores naturales, sin efectos dramáticos. Imagen sencilla y creíble).
BeFunky-collage (1) El impacto cognitivo y en la democraciaEste tema me trae dos reflexiones generales.
Por un lado, el impacto cerebral, cognitivo, que tiene. Vamos hacia un mundo donde apenas veamos una imagen vamos a dudar. El espíritu crítico apenas observemos una imagen va a estar ahí, si es que ya no está, omnipresente. ¿Pero qué pasa si eso se vuelve mucho más frecuente? (No olvidemos que OpenAI lanzó una app este año llamada Sora, que crea videos 100% hechos por IA).
Leí parte de este paper que analiza el impacto psicológico de los deepfakes y dice conceptos que me impresionaron. Uno es este: las personas expuestas a contenidos falsos se vuelven 37% más propensas a desconfiar de videos reales de noticias. No solo eso: la exposición a imágenes hechas con IA incrementan la carga cognitiva del cerebro, lo que puede retrasar los procesos de toma de decisiones hasta en un 26%.
La segunda reflexión es el impacto en la democracia. Esta investigación indica que los deepfakes pueden manipular la opinión pública, socavar procesos electorales e incluso incitar a la violencia al fabricar narrativas falsas sobre figuras públicas.
Ya pasó, y ChatGPT no estaba tan desarrollado: durante las elecciones presidenciales de Turquía en 2023, la desinformación visual jugó un papel central cuando el presidente turco Recep Erdoan proyectó en sus actos un video manipulado que intercalaba imágenes de su rival, Kemal Klçdarolu, con líderes de un grupo terrorista para desacreditarlo. Kemal terminó perdiendo la elección.
Ante un fenómeno en crecimiento, y como es esperable que los modelos mejoren, a los usuarios no nos queda otra que educarnos más: aprender sobre cómo funciona la inteligencia artificial en general, entender sus posibilidades, aprender a usarla y comprender sus riesgos y potencialidades.
A más información, mejores usuarios seremos y mejores decisiones tomaremos.
Comentarios
Deja tu comentario