Hoy en día, los estafadores han encontrado una preocupante manera de engañar a las personas: clonar voces con inteligencia artificial. La Comisión Nacional para la Protección y Defensa de los Usuarios de Servicios Financieros (Condusef) advierte sobre este nuevo modus operandi que utiliza tecnología avanzada para defraudar.
¿Cómo lo hacen? Los delincuentes recopilan fragmentos de la voz de alguien cercano a la víctima, como un amigo o familiar, a través de redes sociales. Luego, con sistemas de inteligencia artificial, replican fielmente la voz, haciéndose pasar por ellos.
En una llamada telefónica, los estafadores simulan situaciones de emergencia, como un robo o accidente, para obtener dinero o información personal. Este tipo de fraude se ha vuelto cada vez más común en México, según las autoridades.
Un estudio de McAfee revela que uno de cada diez encuestados ha recibido un mensaje de voz clonado, y el 77% de ellos ha perdido dinero. Por eso, las autoridades recomiendan mantener la calma, verificar la autenticidad de las llamadas y proteger la privacidad de la voz.
La Secretaría de Seguridad y Protección Ciudadana aconseja no responder números desconocidos y establecer una palabra clave con familiares. Además, activar la verificación en dos pasos en aplicaciones es crucial.
Prevenir estos fraudes es posible compartiendo información sobre ellos y estando alerta a las señales de engaño. Proteger nuestra privacidad en redes es esencial para evitar caer en estas tramas de alta tecnología.