Delincuentes clonan voces con IA para extorsionar: así operan
Los delincuentes ya usan IA para clonar voces y pedir dinero por llamadas falsas. Te decimos cómo protegerte.
Suscríbete a nuestro canal de WhatsApp y lleva la información en la palma de tu mano.
La nueva trampa digital: clonan la voz de tus seres queridos con IA
En un preocupante giro tecnológico, los delincuentes ahora utilizan inteligencia artificial generativa para clonar la voz de tus familiares o conocidos y cometer fraudes. Usando grabaciones que encuentran en redes sociales o audios compartidos, crean réplicas digitales casi exactas que luego utilizan en llamadas falsas de emergencia: desde supuestos secuestros exprés hasta detenciones urgentes. El objetivo es presionar emocionalmente para obtener dinero de forma inmediata.
Los expertos advierten que estas voces clonadas pueden sonar artificiales, con pausas poco naturales o tonos robóticos. Para protegerse, se recomienda no compartir notas de voz personales en redes, desconfiar de números desconocidos que llamen con urgencias y colgar si la llamada parece sospechosa. También es clave confirmar directamente con el familiar si se trata de una situación real. Esta nueva modalidad de fraude evidencia cómo la tecnología puede volverse peligrosa si cae en malas manos.
Para esta y más información, síguenos en nuestras redes sociales como en Facebook Azteca Puebla , vía Twitter @aztecapuebla . Instagram @azteca.puebla o también visita nuestro sitio en www.aztecapuebla.com