El MIT ha desarrollado un guante sensor de bajo costo diseñado para permitir que la inteligencia artificial descubra cómo los seres humanos identifican los objetos mediante el tacto. Llamado Scalable TActile Glove (STAG), utiliza 550 sensores de presión diminutos para generar patrones que podrían utilizarse para crear manipuladores robóticos y manos protésicas mejorados.

Si alguna vez has buscado a tientas en la oscuridad tus gafas o tu teléfono, entonces sabes que los humanos son muy buenos para averiguar qué es un objeto con sólo tocarlo. Se trata de una capacidad extremadamente valiosa que los robots y los ingenieros estarían encantados de emular. Si eso fuera posible, entonces los robots podrían tener muchos más manipuladores diestros y las manos protésicas podrían ser mucho más realistas y útiles.

Una manera de hacer esto es reunir tanta información como sea posible sobre cómo los humanos son capaces de identificarse por el tacto. El razonamiento es que si hay bases de datos suficientemente grandes, entonces el aprendizaje automático podría ser utilizado para realizar análisis y deducir no sólo cómo una mano humana puede identificar algo, sino también para estimar su peso – algo que los robots y las prótesis de miembros tienen problemas para hacer.

El MIT está recopilando estos datos por medio de un guante tejido de bajo coste equipado con 550 sensores de presión. El guante está conectado a una computadora, que recoge los datos, donde las medidas de presión se convierten en un «mapa táctil» de vídeo y se alimentan a una Red Neural Convolucional (CNN) que clasifica las imágenes para encontrar patrones de presión específicos y hacerlos coincidir con objetos específicos.

El equipo reunió 135.000 fotogramas de 26 objetos comunes como latas de refresco, tijeras, pelotas de tenis, cucharas, bolígrafos y tazas. La red neural luego emparejó los marcos semialeatorios con agarres específicos hasta que se construyó una imagen completa de un objeto, muy similar a la forma en que una persona identificará un objeto al girarlo en su mano. Mediante el uso de imágenes semiautomáticas, la red puede obtener clústeres de imágenes relacionados, de modo que no perderá tiempo en datos irrelevantes.

«Queremos maximizar la variación entre los marcos para dar la mejor entrada posible a nuestra red», dice Petr Kellnhofer, de CSAIL postdoc. «Todos los cuadros dentro de un mismo grupo deben tener una firma similar que represente las formas similares de agarrar el objeto. Muestreo de múltiples cúmulos simula a un humano interactivamente tratando de encontrar diferentes agarres mientras explora un objeto».

Este sistema no sólo podía identificar objetos con una precisión del 76 por ciento, sino que también ayudaba a los investigadores a entender cómo la mano los agarra y manipula. Para estimar el peso con una precisión de unos 60 gramos (2,1 oz), se compiló una base de datos separada de 11.600 fotogramas que muestra los objetos que se recogen con los dedos y el pulgar antes de dejarlos caer. Midiendo la presión alrededor de la mano mientras se sostiene el objeto y luego comparándolo después de la caída, se puede medir el peso.

Otra ventaja del sistema es su costo y sensibilidad. Los guantes con sensores similares cuestan miles de dólares y sólo tienen 50 sensores, mientras que el guante del MIT utiliza materiales disponibles y cuesta sólo 10 dólares.