Delincuentes clonan voces con inteligencia artificial para estafar

Con la ayuda de la inteligencia artificial, presuntos delincuentes clonan voces para realizar estafas telefónicas; matrimonio estadounidense narra su anécdota.

Rubi del Razo
Noticias
llamada estafa inteligencia artificial
Crédito: Pixabay

¡Cuidado con las estafas! Hace algunos días, el diario The Washington Post publicó la historia de Ruth Card y su esposo, Greg Grace, un matrimonio estadounidense que denunció haber sufrido una estafa luego de recibir una llamada de, supuestamente, su nieto Brandon, quien les afirmó estar en la cárcel y necesitar dinero en efectivo para pagar la fianza. La pareja aseguró que la voz era idéntica a la de su familiar, por lo que no dudaron en enviarle dinero para apoyarlo. No obstante, todo se trató de una extorsión.

Tras la misteriosa llamada, el matrimonio pasó a varios bancos para pedir prestado el dinero que su supuesto nieto necesitaba. A decir de su testimonio, en la primera sucursal lograron conseguir 2 mil 207 dólares; en el segundo banco, el personal les advirtió que podía tratarse de una estafa. Aunque en un inicio la pareja comenzó a dudar de la llamada, terminaron por convencerse que sí se trataba de su nieto, pues la voz era idéntica a la de Brandon.

Así luce el avatar de Olga Mariana y Kike si fueran parte del Metaverso.

[VIDEO] Llegó el momento de ser parte de “El Mundo del Futuro” con los avatar de Olga, Esmeralda, Natalia, Kike, Rafa y Chicken.

No obstante, después de la insistencia por parte del banco en que podría ser una extorsión, los adultos cayeron en cuenta que presuntos delincuentes habían clonado la voz de su nieto con apoyo a la inteligencia artificial (IA).

Te puede interesar: Estas profesiones podrían desaparecer por la inteligencia artificial

Desventajas de la Inteligencia Artificial

Si bien es una herramienta que ha sido funcional para muchas personas alrededor del mundo, a decir de la policía en Estados Unidos y Europa, este tipo de estafas telefónicas en las que se utiliza la inteligencia artificial para hacer caer a las víctimas han aumentado en los últimos días, pues debido los avances de la IA, estos delitos son más fáciles de llevar a cabo.

Y es que con estas nuevas herramientas, los maleantes pueden clonar voces y tener mayor éxito durante una llamada de extorsión, pues la IA es capaz de clonar cualquier voz con exactitud.

Además, las autoridades han informado que los softwares que se utilizan para clonar la voz de una persona son muy fáciles de utilizar, hecho que, como era de esperarse, ha sido aprovechado por los hampones.

Te puede interesar: Localizan sin vida a Leonardo, conductor de aplicación en Puebla

¡No te pierdas nuestro contenido, sigue a TV Azteca Puebla en Google News!
DISFRUTA LA SEÑAL DE TV AZTECA
Contenido relacionado
×