Inteligencia artificial

Cómo saber si una foto es falsa generada por IA

Es posible que haya visto fotos que sugieren lo contrario, pero el expresidente Donald Trump no fue arrestado la semana pasada y el Papa no vestía una elegante y brillante chaqueta blanca. Estas recientes propagaciones virales son fruto de un sistema de inteligencia artificial que procesa las indicaciones de texto de los usuarios para crear imágenes. Muestran cómo estos programas se volvieron realmente buenos muy rápidamente y ahora son lo suficientemente buenos como para engañar a observadores desinformados.

Entonces, ¿cómo reconocen los espectadores escépticos las imágenes que podrían generar sistemas de inteligencia artificial como DALL-E, Midjourney o Stable Diffusion? Cada generador de imágenes de IA, y cada imagen de cualquier generador determinado, varía en términos de confiabilidad y signos reveladores de su algoritmo. Por ejemplo, históricamente los sistemas de inteligencia artificial han tenido dificultades para imitar la mano humana y han producido extremidades rotas con demasiados dedos. Sin embargo, a medida que la tecnología ha mejorado, sistemas como Midjourney V5 parecen haber resuelto este problema, al menos en algunos casos. Los expertos suelen decir que las mejores imágenes producidas por los mejores generadores son difíciles, si no imposibles, de distinguir de las imágenes reales.

«Es bastante sorprendente en términos de lo que puede hacer un generador de imágenes de IA», dijo S. Shyam Sundar, un investigador de Penn State que estudia los efectos psicológicos de las tecnologías de los medios. «En el último año, se ha producido un gran avance en las capacidades de generación de imágenes».

Sundar señaló que algunos de los factores detrás de este salto en capacidad incluyen el creciente número de imágenes disponibles para entrenar tales sistemas de inteligencia artificial, así como los avances en la infraestructura de procesamiento de datos y las interfaces que han hecho que la tecnología sea accesible para los usuarios comunes de Internet. El resultado, dijo, es que las imágenes generadas artificialmente son ubicuas y «casi imposibles de detectar».

LEER
Cameron Smith es el último jugador del PGA Tour en unirse al LIV Golf Tour respaldado por Arabia Saudita Golf News

Un experimento reciente destaca la capacidad de la inteligencia artificial para engañar. Sophie Nightingale, psicóloga especializada en tecnología digital en la Universidad de Lancaster en el Reino Unido, fue coautora de un estudio que probó si los voluntarios en línea podían distinguir entre objetos creados por un sistema de inteligencia artificial llamado StyleGAN2, avatares tipo pasaporte e imágenes reales. Incluso cuando los investigadores realizaron el experimento a finales de 2022, los resultados fueron desalentadores. «En promedio, la gente se comporta casi por casualidad», dijo Nightingale. «Básicamente, estamos en una etapa en la que es tan realista que la gente no puede percibir de forma fiable la diferencia entre estos rostros sintéticos y los rostros reales, reales, los rostros de personas reales que realmente existen». inteligencia (los investigadores clasifican las imágenes generadas por StyleGAN2 para seleccionar solo las más realistas), pero Nightingale dijo que aquellos que quieran utilizar dichos programas con fines nefastos también pueden hacerlo.

En una segunda prueba, los investigadores intentaron ayudar a los sujetos de prueba a mejorar sus capacidades de detección de IA. Marcaron cada respuesta como correcta o incorrecta después de que los participantes la respondieran, y también se prepararon con anticipación haciendo que los participantes leyeran sugerencias para detectar imágenes generadas artificialmente. El consejo destaca áreas donde los algoritmos de IA a menudo fallan, como crear aretes que no coinciden o difuminar los dientes de una persona. Nightingale también señaló que a los algoritmos a menudo les resulta difícil crear algo más complejo que los fondos normales. Pero incluso con estas adiciones, la precisión de los participantes solo mejoró en aproximadamente un 10%, dijo, y el sistema de inteligencia artificial que generó las imágenes utilizadas en la prueba se actualizó a una versión nueva y mejorada.

LEER
Retrato misterioso podría ser Rafael, sugiere AI

Irónicamente, a medida que las técnicas de generación de imágenes continúan mejorando, la mejor defensa de la humanidad contra ser engañada por un sistema de IA puede ser otro sistema de IA: uno entrenado para detectar imágenes artificiales. Según los expertos, con los avances en la generación de imágenes de inteligencia artificial, los algoritmos están mejor equipados que los humanos para detectar algunas de las pequeñas huellas dactilares a nivel de píxeles creadas por los robots.

Yong Jae Lee, científico informático de la Universidad de Wisconsin-Madison, dice que la creación de estos programas de detección de IA funciona de la misma manera que cualquier otra tarea de aprendizaje automático. «Se recopilan conjuntos de datos de imágenes reales y conjuntos de datos de imágenes generadas por IA», dijo Lee. «Entonces puedes entrenar un modelo de aprendizaje automático para diferenciar entre los dos».

Esos sistemas todavía tienen fallas importantes, dicen Li y otros expertos. La mayoría de estos algoritmos se entrenan con imágenes de un generador de IA en particular y no pueden identificar falsificaciones generadas por diferentes algoritmos. (Lee dice que él y un equipo de investigadores están trabajando en una forma de evitar este problema entrenando detectores para que reconozcan imágenes como reales). La mayoría de los detectores también carecen de las interfaces fáciles de usar que atraen a muchos intentos humanos de generar sistemas de inteligencia artificial.

Además, los detectores de IA siempre intentarán mantenerse al día con los generadores de imágenes de IA, algunos de los cuales emplean algoritmos de detección similares, pero los utilizan como una forma de aprender a hacer que sus resultados espurios sean menos detectables. «La batalla entre un sistema de IA que genera imágenes y un sistema de IA que detecta imágenes generadas por IA será una carrera armamentista», afirmó Wael AbdAlmageed, profesor asociado de ciencias de la computación en la Universidad del Sur de California. No creo que ninguna de las partes gane en el corto plazo».

AbdAlmageed dijo que no hay manera de capturar todas las imágenes generadas por humanos, pero eso no significa que debamos rendirnos. Sugirió que las plataformas de redes sociales deben comenzar a enfrentar el contenido generado por IA en sus sitios, ya que estas empresas están mejor equipadas para implementar algoritmos de detección que los usuarios individuales.

Los usuarios deben evaluar la información visual de manera más escéptica y preguntarse si es falsa, generada por IA o dañina antes de compartirla. «Como seres humanos, nos criaron pensando que ver para creer», dijo Abdulmajid. «Eso ya no es cierto. Ver ya no es creíble».

mira lo que sigue

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba