Blogs

Investigación revela que los asistentes de voz son fáciles de vulnerar

De acuerdo con una reciente investigación de la Universidad de Zhejiang, en China, es posible vulnerar cualquier sistema que tenga instalado un asistente de voz.

Utilizando una metodología creada por ellos, a la que llaman DolphinAttack, los programas pueden ser controlados mediante comandos de voz inaudibles para el oído humano.

Inspirados por el modo de comunicación entre los delfines, los investigadores se dispusieron a montar esta prueba de concepto, en donde codificaron en una frecuencia ultrasónica, y aparentemente silenciosa, los comandos de voz necesarios para activar diversos asistentes inteligentes, comprobando que tomar control sobre ellos era fácil y directo.

Siri, Google Now, Samsung S Voice, Huawei HiVoice, Cortana y Alexa serían totalmente vulnerables a este tipo de hackeo, donde la frecuencia inaudible, adaptada para ser reconocida como la voz del dueño del dispositivo, puede activar a distancia el dispositivo vulnerado.

El riesgo de que Siri sea controlado a distancia sin que el dueño se dé cuenta puede lucir inofensivo, pero bastaría con ese acceso para ingresar a un sitio web que permita instalar en automático un software de intrusión más riesgoso.

To Top
Recupera los datos perdidos de tu Mac
A %d blogueros les gusta esto: