Sobre EmancipaTIC

Alerta por la clonación de voz: la IA abre una vía peligrosa para el fraude telefónico

La clonación de voz, también conocida como “deepfake de voz” o “voice hacking”, consiste en usar inteligencia artificial para replicar la voz de una persona a partir de una grabación de audio o vídeo. Con apenas unos segundos o minutos de voz original, estas herramientas pueden generar audios falsos que suenan sorprendentemente reales.

Este avance tecnológico tiene usos legítimos, por ejemplo, en doblaje, accesibilidad, producción audiovisual o restauración de voz para personas que la han perdido. Sin embargo, también puede ser explotado con fines maliciosos: fraudes, estafas telefónicas, suplantación de identidad, manipulación informativa o extorsión.

Un informe reciente del Servicio de Estudios del Parlamento Europeo (EPRS) alerta del crecimiento de estos “deepfakes” de audio, indicando que gran parte de las estafas por IA ya involucran clonación de voz, lo que demuestra que no es una amenaza futura, sino una realidad presente.

La facilidad de acceso a herramientas de clonación de voz ha democratizado su uso: ya no se necesita un laboratorio avanzado, muchas veces basta con apps disponibles en internet. Esta accesibilidad aumenta especialmente el riesgo para adultos mayores que a menudo confían más en las llamadas telefónicas tradicionales y pueden tener menos herramientas para identificar engaños digitales.

¿Por qué es cada vez más peligroso?

-Realismo elevado y bajo umbral de entrada: hoy en día basta con unos segundos de audio para clonar una voz convincente. Esto hace que personas mayores o con dificultades auditivas puedan ser engañadas con mayor facilidad al no detectar matices sospechosos.

-Vulneración de mecanismos comunes de seguridad: muchas empresas y servicios confiaban en la autenticación por voz, con la clonación, esa barrera deja de ser segura. Esto afecta especialmente a quienes dependen de servicios telefónicos por falta de movilidad o brecha digital.

-Facilidad para el fraude masivo: gracias a la automatización e IA, los delincuentes pueden hacer llamadas de vishing (phishing por voz) de forma masiva, imitando a familiares, conocidos o interlocutores confiables. Adultos mayores y personas que viven solas suelen ser objetivos prioritarios.

-Impacto emocional y de confianza: una voz familiar genera confianza, lo que facilita manipular emocionalmente a la víctima. Esto afecta no solo a mayores, sino también a personas con discapacidad intelectual, personas migrantes con barreras lingüísticas o personas con baja alfabetización digital.

Consecuencias legales, éticas y sociales

-Privacidad y derechos personales: la voz es un rasgo muy personal. Clonarla sin consentimiento vulnera la intimidad y puede conllevar abuso psicológico o fraude. Esto es especialmente grave en colectivos vulnerables que ya son más susceptibles a engaños o presiones.

-Desconfianza social: si no podemos fiarnos de lo que escuchamos, si cualquier voz puede ser falsificada, la confianza en las comunicaciones telefónicas o digitales se erosionaría gravemente. Para personas mayores que dependen del teléfono como principal vía de comunicación, este impacto es aún mayor.

-Riesgo para sistemas de seguridad: muchas empresas, bancos o servicios que usan verificación por voz deben replantear sus métodos. La dependencia exclusiva de la voz ya no es suficiente ni segura. Es imprescindible implementar sistemas de autenticación multifactor, que combinen diferentes medios como contraseñas o códigos temporales para garantizar una protección más sólida.

-Necesidad de regulación y defensa técnica: es necesario que se implementen políticas claras y marcos legales que regulen su uso y penalicen los abusos. Además, es fundamental desarrollar y aplicar tecnologías que ayuden a identificar y bloquear estas falsificaciones antes de que causen daño. Estas soluciones deben ser accesibles y especialmente diseñadas para proteger a los colectivos más vulnerables, garantizando que no sean excluidos ni perjudicados por la complejidad técnica.

Qué podemos hacer para protegernos

Pactar con amigos y familiares un código secreto o palabra clave para confirmar identidad en llamadas importantes: Esta medida simple es especialmente útil para proteger a adultos mayores, que suelen ser el objetivo principal de estas estafas.

Evitar confiar en llamadas urgentes que pidan dinero o datos sensibles sin confirmación por otro canal. Desconfía si la urgencia parece excesiva.

-Empresas y organizaciones: usar verificación multifactor, no depender solo de la voz, especialmente para transacciones sensibles. Esto ayuda a proteger a quienes dependen del teléfono como canal principal de atención.

-Fomentar la concienciación pública sobre este tipo de riesgo: Muchas personas no saben que con unos segundos de audio pueden clonar una voz convincente, y la falta de información afecta principalmente a colectivos vulnerables.

-Apoyar el desarrollo de herramientas de detección de deepfakes y políticas/regulaciones que protejan los derechos de las personas ante la clonación no consentida, con especial atención a adultos mayores, personas con discapacidad y personas en riesgo de exclusión digital.

Comparte esta noticia:

Related Posts

16 Dic 2025

La Ley de Atención al Cliente no protege a los mayores de la exclusión digital

La Ley de Servicios de Atención al Cliente aprobada por el Congreso

1 Dic 2025

Emancipatic participa en la XIII Jornada del Foro LideA: “La tecnología, un recurso al servicio del bienestar de las personas mayores”

El pasado 26 de noviembre, Emancipatic participó en la XIII Jornada del

2 Nov 2025

Envejecimiento activo: Juegos para mejorar la memoria y además entretenerse

22/10/2021 Mayores, Salud y Vida Activa La memoria y el cerebro en

Suscríbete a nuestro boletín de actualidad

Subscription Form