Ciberseguridad
Tu voz revela más de lo que imaginas: los riesgos para la privacidad en la era de la inteligencia artificial y otras tecnologías
La IA ya puede extraer datos sobre salud, emociones o identidad a partir de grabaciones de voz, abriendo un nuevo frente de preocupación sobre el uso y la protección de la información personal

Estudios académicos sostienen que el análisis automático de la voz permite inferir información sensible sin el conocimiento del usuario. / Crédito: Vitaly Gariev en Unsplash.
Pablo Javier Piacente / T21
Los especialistas creen que la información personal codificada en la voz humana podría provocar un aumento de las primas de seguro o publicidad que explote el estado emocional de las personas. La información privada también podría utilizarse para acoso, acecho o incluso extorsión.
La voz humana se ha transformado en una verdadera "mina de datos" a explotar, poniendo en riesgo información personal valiosa. Estudios recientes muestran que patrones de tono, respiración, entonación y elección de palabras pueden revelar datos sobre salud, origen cultural, nivel educativo, estado emocional e incluso inclinaciones políticas. Esa información, que a menudo se comparte sin pensar en grabaciones en reuniones, asistentes de voz o audios de redes sociales, está siendo explotada por algoritmos cada vez más potentes.
Los riesgos son concretos y preocupantes. Un equipo liderado por el profesor Tom Bäckström, de la Universidad Aalto, en Finlandia, concluye en un estudio publicado en la revista Proceedings of the IEEE que la información médica inferida por análisis de voz podría utilizarse para ajustar primas de seguros, dirigir publicidad farmacéutica o, en el peor de los casos, facilitar chantajes y acoso.
Información personal y privacidad en los tiempos de la IA
Incluso personas que no usan servicios de voz pueden verse afectadas: una conversación captada como ruido de fondo en la grabación de otra persona puede filtrar datos sensibles sin consentimiento. Estos escenarios no son hipótesis lejanas, sino amenazas documentadas por expertos, según indica una nota de prensa.
Frente a este panorama, una solución es medir cuánto se puede inferir de una grabación y diseñar defensas tecnológicas. El equipo de Bäckström propone métricas que cuantifican la información contenida en una señal de voz, indicando hasta qué punto una muestra reduce el conjunto de posibles identidades o atributos de una persona.
La nueva tecnología permite evaluar el riesgo real de reconocimiento o extracción de datos sensibles. Esta clase de métricas son la base para herramientas que limiten deliberadamente la cantidad de información que se "fuga" cuando hablamos con una máquina.
Limitando el alcance de los servicios de voz para proteger a los usuarios
Las soluciones técnicas apuntan a reducir el alcance de los datos transmitidos: procesar audio localmente en el teléfono móvil en lugar de enviarlo a la nube, separar y eliminar características que no son necesarias para el servicio, como por ejemplo quitar rasgos biométricos cuando solo interesa el contenido lingüístico, o emplear técnicas de anonimato con garantías estadísticas.
Referencia
Privacy in Speech Technology. Tom Bäckström. Proceedings of the IEEE (2025). DOI:https://doi.org/10.1109/JPROC.2025.3632102
Además, se exploran controles acústicos físicos, para que los micrófonos capten sonido solo dentro de un área concreta, y diseños de interfaz que comuniquen de forma clara al usuario el nivel de privacidad de una interacción. Estas medidas no solo protegen a las personas, sino que pueden ahorrar ancho de banda y costes a los proveedores, transformando la privacidad en una ventaja competitiva.
Sin embargo, hay desafíos importantes a superar: la información en la voz es multifacética y difícil de eliminar sin degradar la utilidad del servicio, mientras que la percepción del usuario sobre la privacidad es clave. Por eso, los expertos piden marcos combinados: métricas precisas, diseño de productos que informen al usuario y regulación que impida usos abusivos. Mientras tanto, las personas pueden reducir su exposición evitando compartir audios en plataformas públicas, revisando permisos de apps y prefiriendo dispositivos que procesen datos localmente.
- Mañana se esperan colas kilométricas en Costco para conseguir el juego de 6 toallas tipo hotel más baratas del mercado: de secado rápido, sirvenpara el baño o el gimnasio
- Luz verde para que Costco se instale en Siero: 170 empleos en tres años y una decisión que causa división en el Gobierno de Barbón
- Mañana se esperan colas kilométricas en Primark para conseguir el juego de sábanas estilo hotel que arrasa: de algodón y en colores que inspiran serenidad
- El tercer gran bulevar de Oviedo toma forma con la conexión de un barrio que lleva años aislado
- Llanera llora a Chechu, motero y oviedista, que falleció el domingo cuando regresaba a casa de ver el partido en el Tartiere: 'Era un buen tipo, siempre alegre, contando chistes
- Horario, recorrido, participantes... el gran desfile de Carnaval de Gijón mira al cielo ante la amenaza de lluvia
- La Universidad Alfonso X el Sabio abre la oferta de empleo para su nuevo campus de Oviedo: estos son los perfiles que se requieren
- Lidia Martínez se jubila tras 40 años como cajera de la primera gran superficie que tuvo Asturias: 'La inmensa mayoría de la gente con la que traté fue maravillosa