viernes, noviembre 22

Esto permite que, al momento de acceder a una cuenta registrada en el gestor de claves, el sistema complete el campo especial de forma directa sin necesidad de que se pulse una tecla adicional.

0
133

El software tiene una efectividad del 95% con grabaciones hechas con un celular

Un estudio realizado por expertos de tres universidades del Reino Unido (Durham, Surrey y Royal Holloway) durante el mes de agosto del año 2023, reveló que es posible generar una inteligencia artificial que tenga la capacidad de adivinar contraseñas solo analizando el sonido que producen las teclas al momento de ser pulsadas para escribirlas.

Según la información recogida por el equipo de investigación, este método de decodificación de las contraseñas presenta un éxito de hasta 95% siempre y cuando se entrene al programa usando un celular para conseguir las grabaciones del sonido de las teclas.

“En el caso de usar grabaciones de un programa de videollamadas como Zoom, la precisión alcanza un 93%”, asegura el documento.

Aún cuando la investigación generó resultados elevados en términos de precisión, lo cierto es que para llegar a este nivel se tuvo que entrenar a la inteligencia artificial en los sonidos que se generan al usar un tipo específico de teclado.

Esto se reduce en caso de que se utilice un hardware diferente pues el sonido y las frecuencias captadas por la IA pueden ser diferentes.

El entrenamiento consistía en usar una MacBook Pro y grabar el sonido que producían sus teclas. Para el estudio se pulsaron 36 teclas 25 veces seguidas para que la inteligencia artificial asocie cada sonido con cada una. Además también se pusieron a prueba diferentes intensidades al momento de pulsar cada una, de forma que la IA considere todas las opciones posibles y se aumente su probabilidad de éxito.

Fue de esta forma que se determinó que la inteligencia artificial es mucho más efectiva cuando el sonido no se genera por medio de una llamada de Zoom pues la distorsión que se genera, aunque no es extrema, sí puede generar que se produzcan malas interpretaciones sobre las ondas sonoras y la intensidad con la que se pulsa cada una.

Debido a que esta es una forma de aplicación de la inteligencia artificial a la que podrían acceder los ciberdelincuentes para vulnerar la privacidad y la protección de los datos de los usuarios, el equipo de investigación también indicó qué técnicas de mitigación podrían ser útiles en estos casos para evitar la filtración de datos personales.

Según los investigadores, la precisión de la inteligencia artificial se reduce a 40% en el caso de que se utilice el teclado virtual que se encuentra en celulares y tabletas. Aunque en general este nivel de reducción es aún considerable, otro de los métodos de seguridad sería el modificar los patrones de redacción en el teclado.

En el caso de que se desee evitar que los usuarios que utilicen una plataforma como Zoom sean vulnerables a este tipo de ataques, los investigadores recomiendan que se utilicen parlantes con música cerca del micrófono del computador pues de esta forma se puede asegurar que el sonido capturado no sea usado para adivinar una clave de acceso.

Otra forma de proteger la información de las cuentas sería utilizar el generador de contraseñas de Google, que administra las claves de acceso de una cuenta abierta en diferentes dispositivos.

Esto permite que, al momento de acceder a una cuenta registrada en el gestor de claves, el sistema complete el campo especial de forma directa sin necesidad de que se pulse una tecla adicional.

Nota original aquí

Fuente: Infobae/Renato Silva

Leave a reply