Informes de aplicación

Montaje rápido y eficaz

Montaje de meubles con la cámara Ensenso N35

Furniture assembly – with Ensenso N35

Nos ha pasado a casi todos: ya tenemos nuestro mueble nuevo, ahora solo falta montarlo. Le echamos ganas y nos ponemos a ello, preparamos todas las piezas, echamos un vistazo a las instrucciones y... tardamos mucho más de lo que habíamos pensado.

En el marco de un proyecto de investigación, un grupo de científicos de la Nanyang Technological University de Singapur (NTU Singapore) ha desarrollado un robot que puede montar todas las piezas de una silla de forma autónoma y sin interrupciones.

Aplicación

Furniture assembly with Ensenso N3
Los científicos de la Universidad Tecnológica de Nanyang

El robot se compone de una cámara 3D Ensenso N35 y de dos brazos dotados de pinzas de agarre. Para ayudar al robot a montar la silla de IKEA el equipo de la "School of Mechanical and Aerospace Enginieering" codificó diversos algoritmos con tres bibliotecas de código abierto distintas.

El hardware del robot se ha concebido de modo que "entiende" cómo las personas montan los objetos: sus ojos son una cámara 3D y sus brazos son brazos robóticos industriales capaces de mover seis ejes. Cada brazo se ha dotado de pinzas paralelas para el agarre de objetos. En las "muñecas" se han dispuesto sensores que determinan la fuerza que tienen que aplicar los "dedos" y la fuerza con la que deben unirse los objetos.

El robot inicia el proceso de montaje tomando imágenes en 3D de las piezas dispuestas en el suelo para generar un mapa de las posibles posiciones de los distintos componentes. Esta tarea la asume una cámara 3D Ensenso, que opera según el principio de la visión estereoscópica (Stereo Vision) imitando la visión humana. Dos cámaras captan imágenes de una escena desde posiciones distintas. Si bien las imágenes obtenidas por las dos cámaras parecen idénticas, hay diferencias en la posición de los objetos. Unos algoritmos especiales comparan las imágenes en busca de una serie de puntos gráficos y visualizan su divergencia en un mapa con todas las diferencias detectadas. El software de la cámara Ensenso puede determinar las coordenadas 3D de cada píxel de la imagen o punto del objeto, en este caso de las piezas de la silla.

Reto

Furniture assembly with Ensenso N3
Se utilizan dos brazos de agarre para sujetar los
componentes

El reto consiste en localizar las distintas piezas de la forma más exacta, rápida y fiable posible en un entorno complejo. Las cámaras Ensenso incorporan un potente proyector que, mediante una máscara de patrones, proyecta una textura de gran contraste sobre el objeto a reproducir para compensar así, incluso en condiciones de luz adversas, las texturas pobres o inexistentes, como en el caso de las piezas de la silla de IKEA. El modelo utilizado aquí podría ir un paso más allá, aunque en esta aplicación no sea necesario: la tecnología FlexView integrada desplaza la textura proyectada a la superficie de las piezas y visualiza otras texturas auxiliares. La captura de varios pares de imágenes de la misma escena con diferentes texturas da lugar a un número mucho más elevado de puntos gráficos.

De ese modo las piezas de la silla se reproducen en 3D con una resolución mucho mayor para que sean más reconocibles por el robot. La función integrada para la calibración mano-ojo del robot del software de la cámara Ensenso ofrece otra ventaja: utiliza una placa de calibración para que la posición del sistema de coordenadas de la cámara (en este caso, una cámara estacionaria) se establezca como sistema de coordenadas básico (posición de la pieza). De ese modo la mano del robot puede reaccionar exactamente a la información proporcionada por la imagen y lograr su objetivo de forma precisa.

"Para un robot montar una silla de IKEA con tal precisión es más complejo de lo que parece" explica Pham Quang Cuong, catedrático de la NTU. "La operación de montaje, que para un ser humano es algo natural, se debe dividir en varios pasos como reconocer dónde se encuentran las distintas piezas de la silla, calcular la fuerza necesaria para agarrar las piezas y garantizar que los brazos del robot se muevan sin colisionar entre sí. Hemos desarrollado unos algoritmos que permiten al robot seguir los pasos necesarios para montar la silla él solo." El resultado es que el robot de la NTU monta la silla "Stefan" de IKEA en solo 8 minutos y 55 segundos.

Perspectiva

Furniture assembly with Ensenso N35
Montaje preciso de la silla IKEA a través de los brazos del robot

Según el profesor Pham Quang Cuong, la inteligencia artificial dotará a la aplicación de una mayor autonomía y funcionalidad: "Queremos integrar un mayor grado de inteligencia artificial para dar más autonomía a los robots con el fin de que puedan seguir los pasos de montaje de una silla después de la demostración de una persona, de leer las instrucciones o incluso de visualizar una imagen del producto montado".

El robot desarrollado por los científicos de la Universidad de Singapur se utiliza para la investigación de la manipulación específica, un área de la robótica que exige un control preciso de la fuerza y del movimiento de manos o dedos robóticos especiales. Para eso es necesario que los componentes de software y de hardware estén perfectamente sincronizados. Y eso se consigue utilizando el procesamiento de imágenes 3D con ayuda de cámaras estereoscópicas 3D Ensenso, que convencen no solo por su precisión, sino también por su rentabilidad y rapidez. Todo un avance en el ámbito del montaje de muebles, entre otros muchos.

Ensenso N35 de un vistazo. 3D-Vision rápido y preciso.

Ensenso N35
  • Interfaz GigE para una aplicación universal y flexible
  • Carcasa de aluminio robusta y compacta
  • IP65/67
  • Sensores CMOS global shutter y proyector de patrones con LED azul o infrarrojo
  • fps máx. (3D): 10 (2x binning: 30) y 64 niveles de disparidad
  • fps máx. (offline processing): 30 (2x binning: 70) y 64 niveles de disparidad
  • Diseñada para distancias focales de hasta 3000 mm (N35) y campos visuales variables
  • Generación de una única nube de puntos 3D a partir de todas las cámaras del modo multicámara
  • Generación directa de las nubes de puntos 3D desde varias perspectivas
  • Tecnología FlexView integrada para una mayor precisión de las nubes de puntos y una mayor solidez de los datos 3D de superficies complejas
  • Sistema "Projected Texture Stereo Vision" para la toma de superficies sin textura
  • Captación de objetos fijos y en movimiento
  •  Paquete de software incluido con controlador y API para Windows y Linux
  • El paquete de software soporta tanto los modelos USB como los modelos GigE
  • Programa de ejemplo con código fuente para HALCON, C, C++, C#
  • Precalibrada y por consiguiente fácil de configurar
  • Función integrada para la calibración de mano-ojo en un robot mediante placa de calibración
  • Integración mediante software de las cámaras industriales uEye, por ejemplo para registrar información cromática o códigos de barras
  • Subsampling y binning para tasas de transferencia de datos y frecuencias de imagen flexibles

NTU Nanyang Technolocigal University Singapore

NTU Nanyang Technolocigal University Singapore

School of Mechanical and Aerospace Engineering
50 Nanyang Avenue
Singapore 639798

www.mae.ntu.edu.sg