Audios: la realidad v. la verdad

Compartir:

Considerando los últimos acontecimientos que afectan al Gobierno, y que son de público conocimiento, resulta oportuno reflexionar sobre un tema central en nuestra época: la tensión entre realidad y verdad.

Así, demostrar que un audio no está confeccionado, manipulado o “tocado” por una inteligencia artificial (IA) puede ser un desafío, o incluso un imposible en determinadas circunstancias, especialmente para la gente común -el público de a pie- que necesita consumir viralizaciones tanto como aire para vivir. Las personas tienden a compartir contenido falso, manipulado o tendencioso un 70% más frecuentemente que información objetiva y real.

Pero, sin dudas, este no es un fenómeno exclusivamente argentino. Claro que no. En todo caso, aquí lo perfeccionamos… o, mejor dicho, lo empeoramos.

Quienes incorporamos el escepticismo como arte tenemos la obligación de desafiar todo aquello que sea posible, a cambio de sustentarlo con evidencia fáctica y empírica. Así las cosas, público, medios, periodistas y organizaciones -muchas y diversas- dan crédito inalterablemente según su predisposición y postura, ya sea para apoyar o rechazar, intencional o inocentemente.

Las tecnologías de generación de audio con IA han avanzado significativamente en los últimos años y están siendo partícipes de campañas de instalación de ideas, noticias y datos de dificultosa validación, pero con un imparable efecto en la memoria de la gente, bombardeada con datos e hipnotizada por la pantalla. Los procesos políticos y las elecciones son usuarios recurrentes… o, mejor dicho, clientes permanentes.

Sin embargo, las técnicas y herramientas para la detección de falsificación o manipulación de audios o videos existen y tienen aplicación práctica.

Los audios generados con IA pueden tener una calidad artificial o robótica. Por ejemplo, típicamente no reproducen sonidos de ambiente: un pajarito, una sirena, un colectivo frenando. El análisis de la calidad de un audio puede ayudar a identificar si es auténtico o no. La detección de patrones o características específicas que no se encuentran en audios reales, las incoherencias o inconsistencias en la narrativa -e incluso en la lógica- son señales de alerta. Analizar el espectro de frecuencia o la dinámica del habla, junto con el empleo de software de detección de deepfakes, son técnicas universalmente aceptadas y utilizadas.

Entonces, para la pregunta “¿cómo sabemos si un video o audio es falso, está manipulado o editado?“, la respuesta es técnica, existen softwares y herramientas de análisis de audio. Los primeros ofrecen soluciones avanzadas para análisis forense de audio y video, incluyendo detección de manipulación y autenticación de grabaciones. También proporcionan técnicas para efectuar procedimientos forenses, como la caracterización acústica de sonidos y el análisis comparativo de voces. Las herramientas pueden ayudar a identificar audios generados por IA, así como detectar la frecuencia de la red eléctrica en una grabación de audio, lo que puede ser útil para determinar la autenticidad de la grabación. Asimismo, existe lo que se denomina “firma acústica”, que analiza las características acústicas de una grabación de audio para identificar posibles manipulaciones, modificaciones o alteraciones del registro original.

Lamentablemente, la tecnología para la creación de contenidos falsos avanza y mejora velozmente, y está en constante evolución. Por lo tanto, las herramientas, técnicas y el know-how de detección también deben acelerarse. La calidad y complejidad de un audio -como aquellos que incluyen múltiples voces o sonidos- pueden ser más difíciles de analizar y detectar. Seis veces más tiempo demanda llegar a las personas con información verdadera que difundir una declaración falsa.

Millones de personas en el planeta forjan sus opiniones viendo imágenes y escuchando audios en redes sociales y WhatsApp, ignorando que están deliberada e intencionalmente “producidos”. Se trata de una nueva industria para procesar y entrenar modelos de IA que generan imágenes, contenido, voces o deepfakes las 24 horas.

Algunas geografías avanzan en la regulación del patrimonio identitario de la digitalidad, mientras que otras siguen negando la imperiosa necesidad del establecimiento de una ética tecnológica. Especialmente cuando dictaduras y democracias hacen uso del mismo tipo de recursos, aunque con aplicación sensiblemente diferente, según el objetivo: perpetuarse irregularmente en el poder, exponer y evidenciar el fraude en una elección, o lacerar la imagen de un candidato y hasta de todo un gobierno.

La tecnología lo facilitó, pero el ser humano la impulsa. La falsedad corre más lejos, más rápido y más profundo que la verdad.

Especialista en riesgo tecnológico y negocios

También puede interesarte

Tecnología: la derecha. Cultura: la izquierda

Continúa de ayer: “La máscara de la cuestión de género”, ------------------------------------------------ ...

Alumnas de un profesorado de Victoria colocaron una cámara oculta y descubrieron a la profesora robando

Una insólita situación ocurrió en un profesorado de la ciudad de Victoria: una docente fue filmada mientras robaba...