Sistema asistido por robot con cámara 3D Ensenso 3D para la manipulación segura de residuos nucleares

Sistema asistido por robot con cámara 3D Ensenso 3D para la manipulación segura de residuos nucleares

El desmantelamiento de las instalaciones nucleares plantea grandes retos a los operadores. El volumen de los residuos nucleares, ya sea para ser eliminados o encapsulados, está aumentando de forma abrumadora en todo el mundo. La necesidad de sistemas de automatización para manipular residuos nucleares es cada vez mayor, pero la industria nuclear desconfía de los métodos de control robótico totalmente autónomos por razones de seguridad; en entornos peligrosos, se prefieren los robots industriales controlados a distancia. Sin embargo, es difícil y en ocasiones incluso imposible de controlar la ejecución de tareas tan complejas como el agarre o el corte por control remoto de objetos desconocidos utilizando joysticks y cámaras de videovigilancia.

Aplicación

Cualquiera que haya probado una de esas máquinas de feria en las que hay que manipular una pinza puede confirmarlo: intentar agarrar un objeto con una pinza controlada manualmente es todo menos trivial. Si bien los intentos fallidos de atrapar un conejito de peluche no causan mayores problemas que la frustración del aspirante, un fallo puede tener consecuencias desastrosas cuando se trata de manipular residuos radiactivos. Para evitar accidentes con graves consecuencias y daños personales y medioambientales, el robot debe poder reconocer exactamente los objetos radiactivos de la escena y manipularlos con precisión. Está literalmente en manos del operador; de él depende identificar las posiciones de agarre correctas.

Robot de corte semiautónomo de ERL guiado por visión artificial 3D para objetos metálicos en entornos radiactivos
Robot de corte semiautónomo de ERL guiado por visión artificial 3D para objetos metálicos en entornos radiactivos

Con ayuda del software, la cámara Enseno 3D se encarga de percibir y evaluar los datos de profundidad para el operador, ahorrándole de ese modo un gran esfuerzo cognitivo. El sistema de asistencia combina las características hápticas del objeto que se va a agarrar con un algoritmo de prensión especial. "Nuestro sistema utiliza la nube de escenas para generar automáticamente varias posiciones de agarre estables.

Dado que las nubes de puntos captadas por la cámara 3D son de alta resolución y densidad, es posible generar posiciones de agarre muy precisas para cada objeto de la escena.

— Dr. Naresh Marturi, Senior Research Scientist del National Centre for Nuclear Robotics —

Sobre esta base nuestro "algoritmo de ránking de hipótesis" determina cuál es el mejor objeto para la captura en función de la posición del robot", explica el Dr. Naresh Marturi, Senior Research Scientist del National Centre for Nuclear Robotics.

El principio es similar al del Mikado, un juego de habilidad en el que hay que ir retirando uno a uno los bastones de madera sin tocar los otros bastones. El guiado predeterminado de la trayectoria permite que el robot recorra de forma suave y uniforme el trayecto deseado hasta la posición de agarre. Al igual que una solución de navegación, el sistema ayuda al operador a guiar el brazo del robot hasta una posición de agarre segura, si es necesario pasando junto a otros objetos desconocidos y peligrosos. Para ello calcula un pasadizo seguro y ayuda al operador a seguir en él mediante feedback háptico.

El sistema traslada los movimientos naturales exactos de la mano del operador en tiempo real a los movimientos correspondientes del robot. "En este punto, el operador controla el robot utilizando únicamente el dispositivo háptico. Si el robot se sale de la trayectoria deseada, lo detecta en el agarre y puede hacer que el robot vuelva a la trayectoria. Cuando el robot alcanza la posición de agarre, el operador percibe una fuerte resistencia en el agarre del dispositivo háptico, por lo que ya no puede mover el robot". De este modo, el operador conserva siempre el control manual y puede tomar el relevo en caso de que fallen los componentes. Para ello puede desconectar la IA y volver a la inteligencia humana desactivando el modo "force-feedback". De acuerdo con el principio de control compartido entre el hombre y la máquina, el sistema permanece en todo momento bajo control, algo esencial en un entorno con el máximo nivel de peligro.

Dr. Naresh Marturi, Senior Research Scientist, Maxime Adjigble, Robotics Research Engineer
Dr. Naresh Marturi, Senior Research Scientist, Maxime Adjigble, Robotics Research Engineer

Perspectiva

Los investigadores del Extreme Robotic Lab de Birmingham están trabajando en una ampliación del método para poder utilizar una mano con varios dedos en lugar de una pinza de mordazas paralelas. El objetivo es aumentar la flexibilidad y la fiabilidad en el agarre de objetos complejos. En el futuro el operador podrá sentir las fuerzas a las que están expuestos los dedos del robot teledirigido al agarrar un objeto. También se están desarrollando métodos de agarre totalmente autónomos, en los que el brazo robótico se controla por inteligencia artificial y se guía mediante un sistema automático de visión artificial. El equipo también está trabajando en herramientas de visualización para mejorar la colaboración entre humanos y robots con el fin de controlar robots remotamente mediante un sistema de "control compartido".

Se trata de un enfoque prometedor para la seguridad y la salud de todos: Al fin y al cabo, la manipulación de objetos peligrosos, como los residuos nucleares, para su eliminación nos concierne a todos. Mediante el registro fiable de la información relevante del objeto, las cámaras 3D Ensenso hacen una importante contribución a esta tarea cada vez más urgente en todo el mundo.

Ensenso N35: Visión artificial 3D rápida y precisa

University of Birmingham