Carabineros alerta estafas mediante inteligencia artificial: Clonan voces y rostros para pedir dinero

Carabineros ha alertado por el uso de "deepfake" y "vishing" para estafas telefónicas.

Imagen
Benjamín Espina

Carabineros de Chile advirtió sobre un nuevo método de estafa usando inteligencia artificial para clonar rostros de famosos.


🚨 Este modus operandi busca engañar a las personas haciéndoles creer que interactúan con celebridades a través de videos o audios.


🔍 Las estafas, conocidas como "deepfake", utilizan tecnología avanzada para imitar rostros y voces, permitiendo a los delincuentes acceder a datos confidenciales o sistemas de seguridad para obtener beneficios económicos.

"Vishing"


👮 Gabriel Bustamante, del OS-9 de Carabineros, explica que estos criminales también aplican técnicas de "Vishing" o "Phishing de voz", simulando ser personas cercanas a las víctimas para extraer información sensible o solicitar dinero.


💡 Frente a este escenario, Carabineros sugiere verificar la identidad de quien solicita dinero de manera urgente a través de otro canal de comunicación, como medida preventiva ante posibles fraudes.

Las recomendaciones


🔐 Se recomienda ajustar la configuración de privacidad en redes sociales y plataformas digitales para limitar la exposición de información personal, reduciendo así el riesgo de ser blanco de estafas personalizadas.


🛡️ Ante solicitudes de información personal, financiera o de acceso a sistemas, es crucial mantener un nivel de desconfianza y evitar responder de manera apresurada a dichas peticiones.


🕵️‍♂️ Carabineros enfatiza la importancia de estar alerta ante este tipo de engaños, fomentando la precaución y el escepticismo como herramientas clave para protegerse de las estafas con inteligencia artificial.