Baste decir que esta montaña de evidencia de fuentes directas pesa más que las imágenes marcadas por comentaristas conservadores como Chuck Callesto y Dinesh D’Souzaquienes han sido atrapó extensión desinformación electoral en el pasado.
Cuando se trata de acusaciones de falsificación de IA, cuantas más fuentes de información dispares tenga, mejor. Si bien una sola fuente puede generar fácilmente una imagen de apariencia plausible de un evento, es mucho menos probable que varias fuentes independientes que muestran el mismo evento desde múltiples ángulos estén involucradas en el mismo engaño. Las fotos que se alinean con la evidencia en video son aún mejores, especialmente porque crean videos convincentes de larga duración de humanos o escenas complejas. sigue siendo un desafío para muchas herramientas de inteligencia artificial.
También es importante localizar la fuente original de cualquier supuesta imagen de IA que estés viendo. Es increíblemente fácil para un usuario de redes sociales crear una imagen generada por IA, afirmar que proviene de un informe de noticias o imágenes en vivo de un evento y luego usar defectos obvios en esa imagen falsa como “evidencia” de que el evento en sí fue falso. Los enlaces a imágenes originales del propio sitio web de una fuente original o de una cuenta verificada son mucho más confiables que las capturas de pantalla que podrían haberse originado en cualquier lugar (y/o haber sido modificadas por cualquier persona).
Señales reveladoras
Si bien rastrear fuentes originales y/o que las corroboren es útil para un evento noticioso importante como un mitin presidencial, confirmar la autenticidad de imágenes y videos de una sola fuente puede ser más complicado. Herramientas como el detector de imágenes Winston AI o IsItAI.com afirman utilizar modelos de aprendizaje automático para determinar si una imagen es IA o no. pero mientras Las técnicas de detección continúan evolucionando.este tipo de herramientas generalmente se basan en teorías no probadas que no han demostrado ser confiables en ningún estudio amplio, lo que hace que perspectiva de falsos positivos/negativos un riesgo real.
Escribiendo en LinkedInHany Farid, profesor de UC Berkeley, citó dos Laboratorios GetReal Los modelos muestran “no hay evidencia de generación de IA” en las fotos del mitin de Harris publicadas por Trump. Farid continuó citando partes específicas de la imagen que apuntan a su autenticidad.
“El texto de los carteles y del avión no muestra ninguno de los signos habituales de la IA generativa”, escribe Farid. “Si bien la falta de evidencia de manipulación no es evidencia de que la imagen sea real, no encontramos evidencia de que esta imagen haya sido generada por IA o alterada digitalmente”.
E incluso cuando partes de una foto parecen ser signos sin sentido de manipulación de la IA (al estilo manos deformes en algunos modelos de imágenes de IA), consideran que puede haber una explicación sencilla para algunas aparentes ilusiones ópticas. la bbc notas que la falta de un reflejo de la multitud en el avión en algunas fotos del mitin de Harris podría deberse a una gran área vacía de asfalto entre el avión y la multitud, como mostrado en ángulos inversos de la escena. Simplemente rodear con un marcador rojo cosas de aspecto extraño en una foto no es necesariamente una prueba contundente de manipulación de la IA en sí misma.