Delincuentes clonan voces con IA para extorsionar: así operan

Los delincuentes ya usan IA para clonar voces y pedir dinero por llamadas falsas. Te decimos cómo protegerte.

Viral y Tendencia
Compartir
  •   Copiar enlace

Suscríbete a nuestro canal de WhatsApp y lleva la información en la palma de tu mano.

La nueva trampa digital: clonan la voz de tus seres queridos con IA

En un preocupante giro tecnológico, los delincuentes ahora utilizan inteligencia artificial generativa para clonar la voz de tus familiares o conocidos y cometer fraudes. Usando grabaciones que encuentran en redes sociales o audios compartidos, crean réplicas digitales casi exactas que luego utilizan en llamadas falsas de emergencia: desde supuestos secuestros exprés hasta detenciones urgentes. El objetivo es presionar emocionalmente para obtener dinero de forma inmediata.
Los expertos advierten que estas voces clonadas pueden sonar artificiales, con pausas poco naturales o tonos robóticos. Para protegerse, se recomienda no compartir notas de voz personales en redes, desconfiar de números desconocidos que llamen con urgencias y colgar si la llamada parece sospechosa. También es clave confirmar directamente con el familiar si se trata de una situación real. Esta nueva modalidad de fraude evidencia cómo la tecnología puede volverse peligrosa si cae en malas manos.

Para esta y más información, síguenos en nuestras redes sociales como en Facebook Azteca Puebla , vía Twitter @aztecapuebla . Instagram @azteca.puebla o también visita nuestro sitio en www.aztecapuebla.com

Contenido relacionado
×
×