Abrir Twitter o WhatsApp hoy es como caminar por un campo de minas visual. Ves una foto del Papa Francisco con un abrigo de plumas blanco de Balenciaga y, por un segundo, te lo crees. O ves una detención de Donald Trump que nunca ocurrió. La realidad es que estamos en la era de la "post-fotografía". No es que la gente quiera mentirte (aunque a veces sí), es que las herramientas para crear falsedades son tan accesibles que cualquiera con un móvil puede fabricar una "prueba" visual en segundos. Aprender cómo verificar la autenticidad de una imagen no es solo una habilidad técnica; es una cuestión de supervivencia digital básica.
Si crees que puedes detectar un deepfake o una imagen generada por IA solo mirando, honestamente, te estás engañando. La tecnología ha superado nuestra capacidad biológica de detección. Pero no todo está perdido. Hay rastros digitales, migas de pan que los algoritmos y los editores descuidados dejan atrás.
El primer paso: La búsqueda inversa no es opcional
La mayoría de los engaños virales no son fotos creadas por inteligencia artificial desde cero. Son fotos viejas sacadas de contexto. Una imagen de una inundación en Tailandia de 2012 que alguien publica diciendo que es Valencia hoy. Es el truco más viejo del mundo.
Para combatir esto, Google Lens es tu mejor amigo, pero no el único. Si haces clic derecho en una imagen en Chrome, puedes buscar la fuente original. Pero si quieres ir en serio, usa TinEye. A diferencia de Google, TinEye te permite ordenar los resultados por "más antigua". Esto es clave. Si la foto que supuestamente es de "ayer" aparece en un blog de 2015, ya tienes tu respuesta. Básicamente, has desmontado el bulo en diez segundos.
Y luego está Yandex Images. Sí, el buscador ruso. Es extrañamente bueno reconociendo rostros y estructuras arquitectónicas que Google a veces pasa por alto. Si una imagen ha sido recortada o se le ha aplicado un filtro para engañar a los algoritmos de búsqueda, Yandex suele encontrar el original con más precisión. Es una herramienta táctica que los verificadores de datos profesionales como los de Bellingcat o Maldita.es usan a diario.
Los metadatos EXIF: El ADN de la fotografía
Cada vez que una cámara digital o un teléfono dispara, guarda un archivo oculto llamado EXIF (Exchangeable Image File Format). Es el carné de identidad de la foto.
📖 Related: Brain Machine Interface: What Most People Get Wrong About Merging With Computers
Aquí es donde se pone interesante. Los datos EXIF te dicen qué modelo de cámara se usó, la apertura, la velocidad de obturación y, lo más importante, las coordenadas GPS y la fecha exacta. Si alguien te envía una foto de un "avistamiento" en los Andes pero los metadatos dicen que se tomó con un iPhone en un suburbio de Nueva Jersey, el caso está cerrado.
Sin embargo, hay un problema enorme. Las redes sociales borran los metadatos.
Cuando subes una foto a Facebook, Instagram o Twitter, la plataforma "limpia" el archivo para proteger la privacidad del usuario (y para ahorrar espacio). Si descargas una imagen directamente de una red social, lo más probable es que los metadatos estén vacíos. En ese caso, necesitas herramientas de análisis forense como FotoForensics.
Análisis de nivel de error (ELA)
FotoForensics utiliza una técnica llamada Error Level Analysis. Básicamente, cuando guardas una imagen en formato JPEG, cada vez que se modifica y se vuelve a guardar, el nivel de compresión cambia. Si alguien ha pegado un cuchillo en la mano de una persona usando Photoshop, esa zona del cuchillo tendrá un "nivel de error" distinto al resto de la imagen. En el mapa de calor de ELA, esa parte brillará de forma diferente. Es como ver una costura en un traje que se supone que es de una sola pieza.
Cómo verificar la autenticidad de una imagen generada por IA
Aquí es donde las cosas se ponen turbias. Las imágenes generadas por Midjourney o DALL-E 3 no tienen una "fuente original" porque nunca existieron en el mundo físico. No hay metadatos de GPS porque no hay cámara.
👉 See also: Spectrum Jacksonville North Carolina: What You’re Actually Getting
Pero la IA tiene "tics". Son como esos actores que no pueden evitar un acento extraño.
- Las manos y los dientes: Sigue siendo el punto débil, aunque están mejorando. Busca dedos de más, uñas que se funden con la piel o dentaduras que parecen tener demasiados molares.
- El texto de fondo: La IA es terrible escribiendo. Si ves un cartel al fondo que parece latín mal escrito o garabatos que intentan parecer letras, es casi seguro que es artificial.
- La iluminación imposible: La IA genera píxeles, no rebotes de luz reales. Mira los ojos. En una foto real, el reflejo de la luz (el "brillo") suele ser idéntico en ambos ojos. En la IA, a menudo un ojo tiene un reflejo cuadrado y el otro uno circular, o están en ángulos que no coinciden con la fuente de luz de la escena.
- Texturas demasiado suaves: Hay una especie de "brillo de plástico" en la piel de las personas generadas por IA. Falta de poros, falta de vello facial fino, o una transición demasiado perfecta entre el pelo y la frente.
El contexto geográfico: Jugar a ser detective
A veces, la tecnología no es suficiente y hay que usar el cerebro. Esto se llama geolocalización. Si la imagen muestra una calle, busca señales de tráfico, el idioma de los carteles, el tipo de matrículas de los coches o incluso el modelo de los postes de luz.
Un ejemplo real: durante un conflicto, se viralizó una foto de un tanque en una ciudad específica. Los investigadores de fuentes abiertas (OSINT) miraron las sombras. Sabiendo la hora a la que se tomó la foto y la orientación de la calle en Google Earth, pudieron calcular que las sombras no coincidían. La foto era real, pero el lugar y la hora eran falsos.
Usa Google Street View. Si la foto dice que es Londres, pero los buzones son azules en lugar de rojos, algo falla. Es un trabajo de paciencia. Sorta divertido, si te gusta el misterio, pero vital para no difundir propaganda.
La iniciativa C2PA y el futuro de la confianza
No podemos depender siempre de buscar dedos extraños. Por eso, gigantes como Adobe, Microsoft y Leica están impulsando el estándar C2PA. Es básicamente una "cadena de custodia" digital.
✨ Don't miss: Dokumen pub: What Most People Get Wrong About This Site
La idea es que la cámara firme la foto en el momento en que se toma. Si luego la pasas por Photoshop, el programa registra: "Se cambió el brillo y se eliminó un objeto". Cuando ves esa foto en un navegador, puedes hacer clic en un icono y ver todo el historial de cambios. Es como el historial de revisiones de Wikipedia, pero para imágenes. Si una imagen no tiene esta procedencia certificada, pronto empezaremos a tratarla con sospecha por defecto.
Pasos prácticos para tu día a día
No necesitas ser un experto en ciberseguridad para dejar de ser engañado. Aquí tienes una hoja de ruta sencilla:
- Duda por defecto: Si una imagen te genera una reacción emocional muy fuerte (odio, alegría extrema, sorpresa), es la señal número uno para verificarla. Los bulos se diseñan para saltarse tu filtro racional.
- Usa extensiones: Instala "InVID / WeVerify" en tu navegador. Es una navaja suiza que combina búsqueda inversa, análisis de metadatos y herramientas de lupa en un solo lugar.
- Mira los bordes: En los montajes de Photoshop (o collages), los bordes de los objetos recortados suelen estar demasiado afilados o tener un rastro de color de la imagen original.
- Busca la fuente primaria: No te fíes de "me lo pasó un amigo por Telegram". Intenta encontrar quién fue la primera persona en subirla a la red. Si la cuenta es nueva o no tiene historial, bandera roja.
La realidad es que la batalla por la verdad visual se está complicando. Pero al final del día, las herramientas están ahí. Solo tienes que usarlas antes de darle al botón de compartir.
Para empezar ahora mismo: Descarga cualquier imagen que te resulte sospechosa y súbela a https://www.google.com/search?q=FotoForensics.com. Fíjate en el mapa ELA. Si ves áreas que brillan mucho más que el resto en un entorno uniforme, estás ante una manipulación. Practica con fotos que sepas que están editadas para entrenar tu ojo a leer esos mapas de error.