Las IA detecta mejor las imágenes deepfake pero los humanos son mejores con vídeos deepfake
- hace 1 día
- 3 Min. de lectura
Un estudio revela que la inteligencia artificial detecta mejor las imágenes falsas, pero tropieza cuando estas cobran vida.
Publicado por Sergio Parra
Periodista científico

En la era de los píxeles maleables y los rostros sintéticos, la frontera entre lo real y lo fabricado se difumina con inquietante facilidad. Las llamadas deepfakes (imágenes y vídeos generados mediante inteligencia artificial que imitan con asombrosa precisión a personas reales) ya no son una curiosidad tecnológica, sino una herramienta con potencial para alterar percepciones, reputaciones y decisiones públicas. En este paisaje movedizo, la pregunta no es trivial: ¿quién distingue mejor la verdad del artificio, el ser humano o la máquina?
Un equipo interdisciplinar de la University of Florida ha puesto a prueba esta cuestión con resultados tan reveladores como paradójicos. Según el estudio publicado en Cognitive Research: Principles and Implications, los algoritmos superan ampliamente a las personas al detectar rostros falsos en fotografías estáticas, pero cuando esos mismos rostros empiezan a hablar y gesticular en vídeo, la ventaja cambia de bando. De pronto, el ojo humano recupera terreno.
La precisión fría del algoritmo
En el terreno de la imagen fija, la inteligencia artificial mostró una eficacia abrumadora. Los programas de detección alcanzaron niveles de acierto de hasta el 97% al identificar fotografías de rostros generados artificialmente. Frente a ese rendimiento casi quirúrgico, los participantes humanos no lograron distinguir entre lo auténtico y lo falso mejor que el azar.
El diseño del estudio fue meticuloso. Los investigadores recopilaron y generaron cientos de imágenes y vídeos, algunos reales y otros creados mediante técnicas de deepfake. Miles de participantes evaluaron la autenticidad de ese material, mientras los mismos archivos eran sometidos a algoritmos especializados en detectar manipulaciones. El contraste fue contundente: en imágenes estáticas, la máquina parecía disponer de una lupa invisible capaz de detectar imperfecciones que escapan a la intuición humana.
Esta superioridad técnica sugiere que, al menos en el ámbito de la fotografía, las herramientas automatizadas pueden convertirse en aliadas clave para combatir la desinformación visual. La capacidad de los algoritmos para analizar patrones microscópicos —sombras incoherentes, simetrías improbables, artefactos digitales— supera con creces nuestra percepción consciente.
Sin embargo, este dominio se reveló frágil cuando la escena dejó de estar congelada.
Cuando el rostro se mueve: el regreso del instinto humano
El verdadero giro del estudio apareció en el análisis de los vídeos. Allí donde la imagen se anima y el rostro articula palabras, los algoritmos descendieron a niveles de acierto equivalentes al azar. En cambio, los participantes humanos identificaron correctamente cerca de dos tercios de los vídeos, tanto reales como falsificados.
¿Por qué esta inversión de papeles? Los autores sugieren que el movimiento ofrece un contexto más rico. En un vídeo intervienen microexpresiones, ritmos de habla, pausas, sincronías sutiles entre gesto y voz. El cerebro humano, entrenado evolutivamente para descifrar señales sociales complejas, parece captar incongruencias que los modelos actuales no logran interpretar con la misma fineza.
Además, el estudio detectó matices interesantes en el desempeño humano. Las personas con mayor capacidad de pensamiento analítico y mejores competencias digitales mostraron mayor habilidad para detectar vídeos manipulados. En contraste, quienes declararon estar de mejor humor tendieron a fallar más, quizá porque el estado emocional positivo favorece una mayor confianza y reduce el escepticismo crítico.
No obstante, los propios autores advierten que las pruebas se realizaron bajo condiciones controladas y con tipos específicos de contenido. El ecosistema digital real, saturado de estímulos y contextos ambiguos, es mucho más complejo. Y tanto la tecnología de detección como la de falsificación evolucionan con rapidez impredecible.
Verdad, poder y vigilancia en la era sintética
Más allá de la comparación entre humanos y máquinas, el estudio plantea una cuestión de fondo: la estabilidad de nuestras decisiones colectivas depende de la autenticidad de la información. Desde campañas políticas hasta conflictos internacionales, la circulación de vídeos manipulados puede influir en percepciones masivas en cuestión de horas.
Los investigadores subrayan que no es imprescindible que cada individuo se convierta en experto en detección digital. Pero sí resulta esencial cultivar una actitud vigilante: cuestionar lo que vemos, contrastar fuentes y buscar evidencias adicionales antes de aceptar una imagen como prueba irrefutable.
En un entorno donde los rostros pueden ser fabricados y las palabras puestas en bocas que nunca las pronunciaron, la verdad ya no es solo un hecho, sino una tarea. La alfabetización digital y el pensamiento crítico aparecen como defensas fundamentales frente a la sofisticación creciente de las falsificaciones.






















Comentarios