Carabineros alerta estafas mediante inteligencia artificial: Clonan voces y rostros para pedir dinero
Carabineros ha alertado por el uso de "deepfake" y "vishing" para estafas telefónicas.
Carabineros de Chile advirtió sobre un nuevo método de estafa usando inteligencia artificial para clonar rostros de famosos.
🚨 Este modus operandi busca engañar a las personas haciéndoles creer que interactúan con celebridades a través de videos o audios.
🔍 Las estafas, conocidas como "deepfake", utilizan tecnología avanzada para imitar rostros y voces, permitiendo a los delincuentes acceder a datos confidenciales o sistemas de seguridad para obtener beneficios económicos.
"Vishing"
👮 Gabriel Bustamante, del OS-9 de Carabineros, explica que estos criminales también aplican técnicas de "Vishing" o "Phishing de voz", simulando ser personas cercanas a las víctimas para extraer información sensible o solicitar dinero.
💡 Frente a este escenario, Carabineros sugiere verificar la identidad de quien solicita dinero de manera urgente a través de otro canal de comunicación, como medida preventiva ante posibles fraudes.
Las recomendaciones
🔐 Se recomienda ajustar la configuración de privacidad en redes sociales y plataformas digitales para limitar la exposición de información personal, reduciendo así el riesgo de ser blanco de estafas personalizadas.
🛡️ Ante solicitudes de información personal, financiera o de acceso a sistemas, es crucial mantener un nivel de desconfianza y evitar responder de manera apresurada a dichas peticiones.
🕵️♂️ Carabineros enfatiza la importancia de estar alerta ante este tipo de engaños, fomentando la precaución y el escepticismo como herramientas clave para protegerse de las estafas con inteligencia artificial.