
Deepfakes de voz: no creas todo lo que escuchas
Los deepfakes de audio que pueden imitar la voz de cualquier persona ya se utilizan para realizar estafas multimillonarias. ¿Cómo se hacen los deepfakes? ¿Puedes protegerte para no ser una víctima?
3 publicaciones
Los deepfakes de audio que pueden imitar la voz de cualquier persona ya se utilizan para realizar estafas multimillonarias. ¿Cómo se hacen los deepfakes? ¿Puedes protegerte para no ser una víctima?
Las redes neuronales generadoras de imágenes ya están en todas partes. ¿Qué riesgos para la privacidad plantean?