fbpx
voz-con-inteligencia-artificial

Clonación de voz con inteligencia artificial ¿cómo nos cuidamos?

Aprende sobre la voz con inteligencia artificial y cómo identificar fraudes. Mantente informado y protegido ante estafas.

mayo 12, 2025

¿Cuáles son los riesgos de hacer nuestra voz con inteligencia artificial? Nuestro experto en tecnología nos va a explicar con lujo de detalles.

Ahora que la inteligencia artificial está a todo lo que da y nos facilita muchas cosas, también debemos tener cuidado porque están utilizando estas herramientas para clonar nuestra voz y hacer extorsiones, así que les vamos a decir cómo cuidarse.

Los fraudes y la Inteligencia Artificial 

Según una encuesta global de McAfee, el 25% de los encuestados afirmó haber experimentado una estafa de clonación de voz con IA o conocer a alguien que lo haya hecho. El 70% de las personas no puede distinguir entre una voz real y una clonada con Inteligencia Artificial, de acuerdo con el mismo estudio de McAfee.

Expertos han alertado sobre un incremento del 30% en este tipo de fraudes en el Reino Unido durante el último año, según The Guardian.

El costo promedio de extorsión aumentó 80%. En 2024, el costo medio de las extorsiones ascendió a 1.25 millones de dólares, frente a los 695,000 dólares del año anterior. Este incremento se atribuye al uso de IA generativa en ataques de ransomware (cuando un virus secuestra tu información y te piden un rescate por ella) y phishing (cuando te engañan y se hacen pasar por empresas para obtener información como contraseñas, números de tarjetas, etc), según Silicon Technology Powering Business.

En América Latina se registraron más de 697 millones de bloqueos de phishing en la región, equivalentes a 1,326 intentos por minuto. La IA ha sido clave en la creación de audios y videos manipulados (deepfakes), complicando la identificación de fraudes.

En el 25% de los ataques, los datos fueron filtrados en menos de 5 horas gracias a la Inteligencia Artificial Generativa, triplicando la velocidad que se veía en este tipo de ataques en 2021.

No dejen de leer: ¿Tu adicción a las redes sociales y la tecnología está matando tu relación?

¿Qué es la clonación de voz?

La clonación de voz con inteligencia artificial consiste en capturar muestras de audio reales de una persona —con apenas 3 a 10 segundos basta— y procesarlas con modelos de IA que aprenden su tono, timbre, ritmo y hasta emociones.

Así, la tecnología puede recrear una voz sintética casi indistinguible de la original, capaz de decir cualquier cosa que le dicte un texto.

¿Y cómo lo hacen? Utilizan algoritmos de deep learning, que es una rama de la inteligencia artificial que imita el funcionamiento del cerebro humano para aprender de grandes cantidades de datos y herramientas cada vez más accesibles en línea. No se necesita ser hacker… sólo mala intención.

¿Dónde está el límite entre el riesgo y la maravilla?

Como toda tecnología, la clonación de voz no es mala en sí misma. Hay usos increíbles:

  • Ayuda a personas con pérdida del habla a recuperar su voz.
  • En cine o videojuegos, puede revivir voces de actores muertos.
  • Puede ser aliada en educación, doblaje, accesibilidad…

Pero en el lado oscuro, los fraudes emocionales están creciendo: extorsiones, suplantación de identidad, manipulación informativa, chantajes.

Y lo más peligroso: no necesitas hackear a alguien para hacerle daño. Solo necesitas su voz.

No dejen de leer: Inteligencia Artificial en la música ¿se vale?

Riesgos de las tecnologías de clonación de voz con Inteligencia Artificial

Suplantación de Identidad: Delincuentes pueden utilizar una voz clonada para hacerse pasar por otra persona y pedir dinero, obtener información sensible o realizar fraudes.

Extorsión y Estafas: Los estafadores pueden usar voces clonadas para crear mensajes de emergencia falsos (como un secuestro simulado) y exigir pagos inmediatos.

Manipulación de Información: Audio falsificado puede ser utilizado para manipular opiniones, crear declaraciones falsas o afectar la reputación de una persona.

Consejos para proteger tu voz (y tu tranquilidad)

No compartas audios largos sin control: Evita dejar audios muy extensos en redes sociales o plataformas públicas. Si vas a compartir tu voz, cuida dónde, cómo y con quién. ¡Tu voz es parte de tu identidad digital!

Verifica cualquier mensaje sospechoso: Si un ser querido te pide ayuda, dinero o algo inusual por nota de voz o llamada: confirma por otro canal. Haz una videollamada, pregúntale algo que solo esa persona sabría.

Hablen en familia de esto: Acuerden una palabra clave de verificación. Que no sea obvia, ni forzada. Sirve como candado emocional si alguna vez reciben una llamada “rara”.

Actualiza tus filtros de privacidad. Revisa tus redes: ¿tienes audios o videos públicos que muestren tu voz claramente? Piénsalo dos veces. Lo que subimos con amor, puede usarse con maldad.

Especialista: Emilio Saldaña, ‘Pizu’. Experto en tecnología.

TW: @Pizu // IG: @pizurrizu.

únete a nuestra comunidad

mayo 12, 2025