El robot Cabot, en el centro, preparado para 'pillar' mentiras. Pepe Marín

La UGR crea un sistema entrenado para detectar voces falsas

El objetivo de la nueva herramienta es discernir si una grabación de voz es real o se ha generado mediante inteligencia artificial

Andrea G. Parra

Martes, 30 de julio 2024, 09:21

«Aquí hemos venido a ganar». Una frase muy común, pero parecía que la pronunciaba el Rey Felipe VI con motivo de los Juegos Olímpicos ... de París cuando se escuchó el audio ayer en la sala de prensa del Hospital Real de la Universidad de Granada (UGR). En realidad no era. No era el Rey. Lo detectaba la herramienta que han creado en la institución universitaria granadina para afrontar los retos del material, en este caso voz, creada por inteligencia artificial.

Publicidad

La tecnología contra la tecnología. O la tecnología aliada de la tecnología. Son muchas aristas las que se presentan y a las que los científicos están intentando dar respuesta. En este caso, son un grupo de investigadores pertenecientes al departamento de Lenguajes y Sistemas Informáticos que han diseñado un sistema «pionero» en el mundo que permite discernir si un audio de voz es real o está generado mediante algoritmos de inteligencia artificial. Es un método para combatir la desinformación y las 'fake news'. El mal uso de los datos que acecha cada día a medios de comunicación y ciudadanía en general. La investigadora Zoraida Callejas fue la encargada de exponer en qué consiste la herramienta que han diseñado. Lo hizo acompañada por el rector de la UGR, Pedro Mercado, y por el robot Cabot.

El audio falso, diseñado a través de la inteligencia artificial, es un problema cada vez más presente y extendido

El rector destacó la importancia del trabajo silencioso que se hace en los laboratorios y la relevancia de que se conozca. En esta línea, subrayó el gran desafío de la inteligencia artificial en todas sus vertientes. Recordó que en el ámbito periodístico y la sociedad si antes el debate versaba sobre lo fidedigno del mensaje ahora lo es sobre la persona y la voz. La herramienta para detectarlas falsas voces está realizada en el marco de la cátedra RTVE-UGR. Está entrenada, en este caso, con las voces del Rey Felipe VI, como se ha indicado; el presidente del Gobierno, Pedro Sánchez; y la vicepresidenta, Yolanda Díaz. En la investigación y en la presentación estuvieron Zoraida Callejas, como se ha indicado, y los investigadores David Griol y Daniel Calderón.

En la comparecencia ante los medios de comunicación se expuso que los avances en el uso de redes neuronales profundas para la síntesis de audio están permitiendo obtener voces sintéticas cada vez más realistas. Esto tiene grandes ventajas, pues permite dotar de voces más inteligibles a los sistemas automáticos –por ejemplo, lectores de texto, asistentes virtuales, robots…–, así como controlar sus características, haciéndolas más expresivas y diversas –con aplicaciones, por ejemplo, en la producción de contenido multimedia–. Hay científicos que trabajan en este sentido con aplicaciones en diversos sectores.

Publicidad

Esta tendencia tiene una cara y una cruz. La síntesis de habla también se puede utilizar para crear o manipular grabaciones de audio para fines no buenos, como la suplantación de identidad en estafas telefónicas o la generación de noticias falsas. El audio falso, creado a través de la inteligencia artificial, es un problema cada vez más presente y extendido.

El siguiente reto es la IA conversacional, que proporcione interactividad, y personalización de contenidos informativos

Con la investigación se aplica la verificación de audios para combatir la desinformación. Integra soluciones propias y de terceros para discernir si un audio es real o está generado con algoritmos. Una de las novedades que introduce esta herramienta es que no solo integra modelos generales, sino también específicos generados en la UGR para voces de personalidades que son objetivo frecuente de desinformación.

Publicidad

«Nuestro objetivo no es generar estas voces sintéticas de manera artificial, sino entrenar a nuestra inteligencia artificial mediante estas voces generadas por nosotros para que así el sistema pueda identificar si una voz es falsa o no con una alta precisión», defendieron los investigadores. El siguiente reto es la inteligencia artificial conversacional, que proporcione interactividad, accesibilidad y personalización de contenidos informativos. «Para que un texto (una información) pueda ser interactiva», puntualizó Callejas.

En otro plano, sobre el problema de las estafas telefónicas y la voz, Callejas valoró que es más un problema de que el tiempo «juega en contra». En referencia a que llaman, «hay ruido, la voz indica que la decisión se debe tomar pronto, y no tanto por si es más o menos artificial. En la UGR, el grupo de Callejas lleva años entrenando y analizando estos sistemas para ir cada vez un pasito más lejos en la consecución de que las máquinas se comuniquen con los seres humanos de una manera natural.

Este contenido es exclusivo para suscriptores

Suscríbete durante los 3 primeros meses por 1 €

Publicidad