Redacción
Estados Unidos.- En un contexto de elecciones cruciales en Estados Unidos y la Unión Europea, las herramientas de Inteligencia Artificial (IA) están siendo utilizadas para crear desinformación electoral convincente, advirtió el viernes un grupo de derechos civiles digitales. Investigadores del Centro para Contrarrestar el Odio Digital (CCDH), con sede en Washington, probaron seis herramientas de clonación de voz con IA, descubriendo que el 80% de las veces estas tecnologías pueden generar falsos audios convincentes de figuras políticas.
Los expertos simularon declaraciones falsas de ocho políticos destacados, incluyendo al Presidente de Estados Unidos, Joe Biden, y al Presidente francés, Emmanuel Macron. En uno de los clips, un falso Biden afirmaba que los votos se cuentan dos veces, y en otro, un falso Macron alertaba sobre amenazas de bomba en los centros de votación. Estas pruebas revelan la facilidad con la que estas herramientas pueden ser usadas para engañar a los votantes.
El CCDH encontró que, aunque algunas herramientas tienen salvaguardas para evitar la desinformación, estas barreras fueron fácilmente superadas en muchos casos. Sólo ElevenLabs, una de las empresas cuyas herramientas se probaron, respondió a los múltiples comentarios y afirmó estar trabajando en reforzar sus medidas de seguridad.
La preocupación por el uso de IA en la creación de desinformación es creciente, especialmente a medida que se acercan elecciones democráticas importantes. Los votantes de la Unión Europea acudirán a las urnas para las elecciones parlamentarias en menos de una semana, mientras que en Estados Unidos se celebran elecciones primarias previas a las presidenciales.
El director general del CCDH, Imran Ahmed, señaló que las plataformas de IA facilitan la creación de mentiras que obligan a los políticos a desmentir repetidamente, afectando la confianza pública. Ahmed hizo un llamado a los legisladores para establecer estándares mínimos y regular estas tecnologías, destacando que la desinformación no solo provoca incidentes políticos menores, sino que también erosiona la confianza en la información que las personas ven y escuchan.
El CCDH realizó su investigación en mayo, utilizando Semrush para identificar las seis herramientas de clonación de voz más populares: ElevenLabs, Speechify, PlayHT, Descript, Invideo AI y Veed. Los investigadores encontraron que las herramientas podían generar declaraciones infundadas y convincentes sobre manipulación electoral, mentiras y amenazas de seguridad, demostrando una falta de seguridad adecuada en estas plataformas.
ElevenLabs, aunque bloqueó la clonación de voces de políticos de EE. UU. y el Reino Unido, permitió la creación de audio falso de políticos de la UE. Aleksandra Pedraszewska, directora de seguridad de IA en ElevenLabs, afirmó que la empresa está mejorando continuamente sus salvaguardas y espera que otras plataformas sigan su ejemplo.
Casos recientes han demostrado el potencial dañino de estas tecnologías. En Eslovaquia, días antes de las elecciones parlamentarias de 2023, se compartieron en redes sociales clips de audio falsos de un líder del partido liberal. En Nueva Hampshire, llamadas telefónicas generadas por IA imitaron la voz de Biden, aconsejando a los votantes que se quedaran en casa durante las primarias.