El Aprendizaje por Refuerzo para el cálculo del Modelo Cinemático Inverso de un robot colaborativo

Autores/as

DOI:

https://doi.org/10.64117/simposioscea.v1i2.74

Palabras clave:

Aprendizaje por refuerzo, Robótica, Modelo Cinemático Inverso, Modelado, Control Inteligente

Resumen

Este artículo propone un enfoque de aprendizaje por refuerzo para resolver el modelo cinemático inverso (MCI) en manipuladores industriales. Se emplea un agente Deep Deterministic Policy Gradient (DDPG) con buffer de repetición, Hindsight Experience Replay (HER) y normalización de entradas, que interactúa con un entorno que emula la cinemática directa del robot colaborativo GOFA 5_95. La función de recompensa combina penalizaciones por error de posición y discrepancia angular, y se entrena al agente en 27 subespacios del volumen de trabajo. En la fase de evaluación, se ejecutan un número de inferencias sobre superficies esféricas y esferoidales, obteniéndose tiempos medios de inferencia inferiores a 5 ms, tasas de éxito superiores al 98 %, errores posicionales medios alrededor de 11 mm y errores angulares medios de 0,13 rad. Estos resultados demuestran la viabilidad del aprendizaje por refuerzo como alternativa en tiempo real al cálculo iterativo del Jacobiano para aplicaciones que no requieran de precisión subcentimétrica.

Descargas

Publicado

2025-06-18