La duda eterna: audios generados por algoritmos

¿Es real lo que escuchamos? La creación de audios a través de algoritmos, a partir de una muestra de 3 segundos, abrirá algunos interrogantes.

Entre los últimos desarrollos tecnológicos de lo que antes podríamos haber considerado ciencia ficción se encuentran los algoritmos que generan videos con rostros falsos o directamente videos en los que la persona está diciendo algo que no dijo: su detección pronto será imposible y, en la era de las redes sociales y su vértigo, se podrán generar escándalos a partir de videos que en verdad nunca existieron. Como era de esperar, también en el campo del audio hay grandes avances en la misma dirección.

Ansiado o no, festejable o tampoco, se anunció un notable avance en el desarrollo de un algoritmo de Inteligencia Artificial que permite clonar la voz de una persona con una muestra de algo más de 3 segundos de duración. ¿Dijimos ciencia ficción? Allá vamos, otra vez…

Según consignan medios especializados en tecnología (Motherboard – ver más), el grupo chino de tecnología Baidu logró clonar la voz de una persona a través de un algoritmo de Inteligencia Artificial con una muestra de solamente 3,7 segundos. Hace un año, con el mismo procedimiento, hacían falta alrededor de 30 minutos de audio para lograr la clonación.

Con estos avances, sumados al cocktail de las redes sociales, en muy poco tiempo podremos empezar a descreer de todo lo que veamos y escuchemos. Sumando así un factor más al debate de las fake news, la credibilidad de los medios, el valor de los testimonios en audio o filmados y el rol del periodismo. Ni hablar de los audios que nos llegan por WhatsApp.

Si bien los ejemplos usados como demostración son bastante burdos (por ahora) en el caso de partir de muestras de tres o cuatro segundos de audio, a partir de audios más extensos las réplicas son realmente de una calidad decente. Digamos que: si se cuenta con buena cantidad de material, como por ejemplo un audio de un minuto o dos, como el que perfectamente puede mandar cualquiera por WhatsApp, se puede generar luego un audio completamente falso, con casi la misma calidad y completamente creíble.

Como escribiéramos aquí mismo: estamos en una era en que, a través del impulso de la difusión digital de contenidos multimedia (que otros especialistas retratan y analizan mucho mejor, y con más herramientas, que nosotros) y —a riesgo de sonar insistentes— con la magnitud de la difusión que provocan las redes sociales, y la penetración de las mismas tanto en la vida cotidiana como en el sistema de medios —por lo menos en lo referido al caso argentino—, llegamos a un punto en el que un video o un audio es difundido, viralizado, sin dudar muchas veces de su veracidad. Tal político dijo esto, tal persona comentó esta otra cosa. Tenemos testimonios —sobre todo en audio— de los que desconocemos su procedencia (viralización lisa y llana; carpetazo u operación política; filtración a los medios, sea o no de los servicios de inteligencia; y tantas otras) y nos llegan, los escuchamos, los difundimos, los whatsapeamos, son virales…

El desarrollo de softwares que permitan la realización casera, o digamos en manos de cualquier usuario, de audios o videos falsos aún no llegó al punto de que todos podamos tenerlos en nuestros teléfonos inteligentes (aunque hay algunos desarrollos, aún no masivos). El crecimiento, como contraparte, de las acciones contra las fake news –-sean las reacciones de Zuckerberg y sus políticas de Facebook, como la respuesta de los principales medios estadounidenses a los ridículos ataques de Trump— así como de los sitios de fact-checking, con Chequeado.com como bandera no solo en Argentina si no en la región, habla de un panorama que se está moviendo y del que no sabremos dónde ni cómo terminará de acomodarse a la situación.

Mientras tanto, siguen los desarrollos de software que nos llevarán en menos tiempo del esperado a dejar de creer en ¿casi? todo lo que escuchamos o vemos… Quedará el interrogante de cuándo y cómo se harán masivas las aplicaciones que nos permitan crear un audio o un video falso de cualquier persona, y nos quedará luego la duda eterna respecto de todo lo que veamos o escuchemos en el mundo digital y el de las redes sociales.

La duda eterna: audios generados por algoritmos

You May Also Like

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.