Con la captación de movimientos faciales de cualquier persona, el reconocimiento de voz de una celebridad y la grabación de otro dato sonoro, son suficientes para que ciberdelincuentes generen un video personalizado para estafar con el uso de la Inteligencia Artificial. Lo que parece increíble, le ocurrió a una mujer que por meses interactúo con un hombre que creía era Brad Pitt.
La mujer en mención fue víctima de estafa por un inescrupuloso que la sedujo y la enamoró, haciéndose pasar por el famoso actor. Un equipo de Ocurre Ahora demostró lo fácil que puede ser generar material de este tipo con la imagen del actor peruano Christian Meier. La técnica es la misma y de rápido acceso gracias a prompts especiales para la configuración.