Un informe del programa de Ingeniería de Sonido de la Universidad de San Buenaventura, Bogotá, explicó cómo operan los deepfakes (videos o audios generados con inteligencia artificial para suplantar personas), las señales que permiten identificarlos y las medidas para evitar robos durante la temporada de fin de año.
Las recomendaciones son realizadas en medio del cierre de año, época que trae un riesgo por lo que los especialistas en sonido y ciberseguridad hablaron de cómo detectar la clonación de voces mediante inteligencia artificial, empleadas para fraudes y extorsiones.
Ahora puede seguirnos en Facebook y en nuestro WhatsApp Channel
Un informe de la Universidad de San Buenaventura (USB), sede Bogotá, aseguró que esta modalidad puede incrementarse hasta un 30% en dic

Infobae San Francisco

El Grafico
Noticias de América
Associated Press Spanish
RT en Español
FactCheck en Español
Al Día Dallas
CiberCuba Estados unidos
AlterNet