Nuevas tecnologías, comunicados de prensa sobre Videojuegos, Gadgets, Tendencias, Redes Sociales, IT y mucha cultura digital

Portada » Investigación revela que los asistentes de voz son fáciles de vulnerar

Investigación revela que los asistentes de voz son fáciles de vulnerar

263 0
Want create site? Find Free WordPress Themes and plugins.

De acuerdo con una reciente investigación de la Universidad de Zhejiang, en China, es posible vulnerar cualquier sistema que tenga instalado un asistente de voz.

Utilizando una metodología creada por ellos, a la que llaman DolphinAttack, los programas pueden ser controlados mediante comandos de voz inaudibles para el oído humano.

Inspirados por el modo de comunicación entre los delfines, los investigadores se dispusieron a montar esta prueba de concepto, en donde codificaron en una frecuencia ultrasónica, y aparentemente silenciosa, los comandos de voz necesarios para activar diversos asistentes inteligentes, comprobando que tomar control sobre ellos era fácil y directo.

Siri, Google Now, Samsung S Voice, Huawei HiVoice, Cortana y Alexa serían totalmente vulnerables a este tipo de hackeo, donde la frecuencia inaudible, adaptada para ser reconocida como la voz del dueño del dispositivo, puede activar a distancia el dispositivo vulnerado.

El riesgo de que Siri sea controlado a distancia sin que el dueño se dé cuenta puede lucir inofensivo, pero bastaría con ese acceso para ingresar a un sitio web que permita instalar en automático un software de intrusión más riesgoso.

Did you find apk for android? You can find new Free Android Games and apps.
Recupera los datos perdidos de tu Mac
A %d blogueros les gusta esto: