Personas con ceguera pueden usar inteligencia artificial y Google Glass para conocer su entorno
Las gafas son utilizadas para mayor comodidad en lugar de otros productos de realidad aumentada
Además de la inteligencia artificial generativa, uno de los modelos que se ha desarrollado son los sistemas “multimodales”, programas que no solo pueden reconocer palabras y seguir instrucciones, sino que pueden procesar texto e imágenes y generar respuestas a partir de ellos. Esta es la tecnología que está siendo utilizada para hacer que personas con discapacidad visual puedan interactuar con su entorno de manera independiente.
Ask Envision, por ejemplo, es una herramienta digital que cumple las funciones de asistente virtual con capacidad de ver el entorno y analizarlo usando inteligencia artificial como GPT-4 para brindar información en tiempo real usando una voz generada por computadora.
Ya que en estos casos los usuarios necesitan tener la capacidad para desplazarse cómodamente por la calle sin correr el riesgo de tener que conectar grandes gafas de realidad virtual en medio de un parque o en el supermercado, el soporte elegido por Envision fue el Google Glass.
Ya que en estos casos los usuarios necesitan tener la capacidad para desplazarse cómodamente por la calle sin correr el riesgo de tener que conectar grandes gafas de realidad virtual en medio de un parque o en el supermercado, el soporte elegido por Envision fue el Google Glass. Este dispositivo fue elegido por los desarrolladores pues es ligero y tiene una batería con la capacidad adecuada para entornos públicos.
El sistema de la aplicación permite el reconocimiento de caras, objetos, colores e incluso la descripción de escenas y entornos que luego son descritos usando una voz artificial que se puede escuchar desde los lentes de Google. Uno de sus puntos no tan positivos, sin embargo, es que el procesamiento del entorno está condicionado a que los usuarios usen la funcion tomar fotos de las gafas. Solo se pueden analizar imágenes estáticas.
Para acceder a la inteligencia artificial, cada usuario deberá instalar la aplicación Envision AI en su celular y luego vincularla con los lentes de Google. Al hacerlo, se podrá acceder a comandos de voz como “Analiza esto” y a gestos como tocar la parte lateral de los lentes para tomar una fotografía e iniciar el análisis.
Según la compañía que desarrolló la herramienta, la inteligencia artificial puede identificar a otras personas en una habitación y usar la voz artificial para decir que uno “se parece a” una persona registrada en su sistema. También es capaz de traducir textos a más de 60 idiomas diferentes, además de reconocer billetes de hasta 100 países diferentes, de forma que los usuarios pueden viajar a diferentes destinos sin problemas.
Uso controlado de estos programas
Aunque en principio el reconocimiento facial, la interpretación del entorno y la traducción de textos puedan ser funciones interesantes para probar y que podrían ser útiles para los usuarios con discapacidad visual (parcial o total), lo cierto es que su uso debería estar limitado a una cantidad de actividades mínima.
Esto se debe a que por el momento los modelos de inteligencia artificial no han llegado a tener un elevado nivel de prescisión que permita confiarles aspectos más determinantes del día a día como el reconocimiento de medicamentos
Por otro lado, mientras que la inteligencia artificial aún presente inconvenientes con las consultas sobre información (datos inexactos o inventados), la posibilidad de que estos aparezcan en otras aplicaciones que incorporen sus capacidades debería ser tomada con precaución por parte de los usuarios.
Nota original aquí
Fuente: Infobae/Renato Silva