INTELIGENCIA ARTIFICIAL

Esta mochila con inteligencia artificial ayudará a personas con discapacidad visual a navegar por el mundo

La mochila ayuda a detectar los desafíos comunes como letreros de tráfico, obstáculos suspendidos, cruces peatonales, objetos en movimiento y elevaciones cambiantes, todo mientras se ejecuta en un dispositivo interactivo de bajo consumo de energía.  

TECNOLOGÍA

·

La inteligencia artificial es una tecnología que se ha ido adaptando a diferentes áreas, entre ellas la medicina. Tal es el caso del desarrollador Jagadish K. Mahendran y su equipo quienes diseñaron una mochila implementando esta tecnología, activada por voz, que busca ayudar a las personas que viven con alguna discapacidad visual a navegar y percibir el mundo que los rodea. 

Según informes de la Organización Mundial de la Salud estima que, a nivel mundial, 285 M de personas viven con discapacidad visual. Por el momento, los sistemas de asistencia visual para navegación son bastante limitados y oscilan de aplicaciones de smartphones asistidas por voz, basadas en el Sistema de Posicionamiento Global (GPS), a soluciones de bastones inteligentes activados por cámara. Estos sistemas carecen de la percepción de profundidad necesaria para facilitar la navegación independiente.  

¿Cómo funciona?

El sistema está alojado dentro de una pequeña mochila que contiene una unidad de cómputo central, parecida a una computadora portátil. En un chaleco se encuentra oculta una cámara, y en una cangurera contiene una batería tamaño bolsillo, capaz de proporcionar aproximadamente ocho horas de uso. Se puede añadir una cámara de inteligencia artificial espacial Luxonis OAK-D al chaleco o la cangurera, y después conectarla a la unidad de cómputo de la mochila. Tres pequeños agujeros en el chaleco sirven como ventanas de visualización para la OAK-D, que está colocada en el interior del chaleco.

La unidad OAK-D es un dispositivo de inteligencia artificial versátil y poderoso que se ejecuta en la VPU Intel Movidius y el kit de herramientas Intel Distribution of OpenVINO para inferencia de inteligencia artificial de edge en chip. Tiene la capacidad de ejecutar redes neuronales avanzadas mientras proporciona funciones de visión por computador acelerada y un mapa de profundidad en tiempo real desde su par estereofónico, así como información de color desde una sola cámara 4k.

Un auricular habilitado por Bluetooth permite que el usuario interactúe con el sistema a través de consultas y comandos de voz, y el sistema responde con información verbal. A medida que el usuario se desplaza en su entorno, el sistema transmite audiblemente información sobre los obstáculos comunes, que incluyen letreros, ramas de árboles y peatones. También advierte sobre cruces peatonales, banquetas, escaleras y vías de acceso próximos.  

¿De dónde nace la idea?

Jagadish K. Mahendran comentó que todo surgió el año pasado, cuando se reunió con un amigo que vive con una discapacidad visual "me impresionó enormemente la ironía de que mientras yo enseño a robots a ver, hay mucha gente que no puede ver y necesita ayuda. Esto me motivó a construir el sistema de asistencia visual con el kit de inteligencia artificial con profundidad (OAK-D) de OpenCV, impulsado por Intel.”