top of page
Buscar

Verlo Todo: Cómo Potenciamos el Análisis en Tiempo Real con Foxglove

  • Foto del escritor: seaxaidevloop
    seaxaidevloop
  • 13 ago
  • 4 Min. de lectura

Actualizado: 14 ago

En SeaX AI, cada segundo de prueba cuenta. Nuestro trabajo consiste en entender cómo se comporta el vehículo autónomo en todo tipo de situaciones y, para eso, necesitamos acceder a todos los datos relevantes en un solo vistazo. Con esa idea en mente, hemos desarrollado una herramienta de visualización que combina múltiples fuentes de información y nos permite analizar en tiempo real lo que está ocurriendo en la pista o en el simulador.


Esta herramienta integra imagen real, modelos 3D del vehículo y el escenario, y gráficos dinámicos de variables clave como ángulo de volante, velocidades y aceleraciones. Así, en lugar de interpretar logs de forma aislada, podemos ver todo el contexto de la maniobra mientras sucede, o reproducirlo después para un análisis detallado.


Para construirla hemos aprovechado Foxglove como plataforma base, personalizando su configuración para que se adapte exactamente a nuestras necesidades de desarrollo y validación. Gracias a esta herramienta, podemos unificar en un único entorno toda la información que necesitamos: desde imágenes reales y modelos 3D del vehículo y el entorno, hasta gráficos en tiempo real de las variables más críticas.


Framework de visualización de datos con Floxgove durante ensayos de conducción autónoma

¿Qué vemos en la interfaz?


En el video, se aprecia cómo la interfaz de Foxglove combina diferentes paneles que nos permiten, literalmente, ver la historia completa de la prueba en tiempo real o reproducirla posteriormente para su análisis. Entre las principales capacidades que utilizamos están:


  1. Error lateral en todo momento. El error lateral —la distancia lateral entre la posición actual del vehículo y la trayectoria deseada— es uno de los indicadores clave para evaluar el rendimiento del control. Verlo en tiempo real nos permite identificar desviaciones, correlacionarlas con las maniobras y actuar sobre los parámetros de control antes de que se acumulen problemas.


  2. Vista de cámara real y entorno 3D sincronizados. Combinamos la imagen capturada por la cámara interna del vehículo con una recreación tridimensional en la que vemos la posición exacta del coche en el escenario. Esto nos da dos perspectivas complementarias: lo que “se ve” desde el interior del vehículo y dónde está realmente en el espacio.


  3. Gráficas de variables críticas. Monitorizamos y graficamos en vivo parámetros como el Steering Wheel Angle, velocidades longitudinal y lateral, aceleraciones, yaw rate y cualquier otra señal de interés. Estas gráficas están sincronizadas con la imagen real y el modelo 3D, lo que facilita detectar la causa de un comportamiento anómalo.


  4. Escalabilidad y personalización. Hemos configurado Foxglove para que podamos añadir o quitar variables y vistas de forma sencilla según el tipo de prueba. Por ejemplo, en validaciones de control de dirección nos centramos en el ángulo de volante y su derivada, asi como en el error lateral, mientras que en pruebas de aceleración y frenado priorizamos las gráficas de velocidad, fuerzas G y jerk.



¿Por qué es tan valioso para nosotros?


Antes de contar con una herramienta así, el flujo típico era mucho más fragmentado:


  • Descargar los logs de la prueba.

  • Abrirlos con un analizador de datos, generalmente MATLAB.

  • Reproducir las imágenes de cámara en otro programa.

  • Sincronizar la información manualmente.


Ese proceso podía llevar horas y era propenso a errores de interpretación.

Con la integración de Foxglove y ROS 2, todo ocurre en una única interfaz, y aquí hay un detalle clave: el trabajo de ROS al generar un ROS bag es fundamental. Cuando grabamos una prueba en ROS 2, el bag almacena absolutamente todo: cada topic, cada variable temporal, cada imagen de vídeo o 3D… todo perfectamente sincronizado, como si estuviéramos reproduciendo una simulación.


Esto significa que podemos rebobinar y reproducir la sesión con total fidelidad, analizando no solo lo que pasó, sino por qué pasó. Foxglove se encarga de leer ese ROS bag y nos permite elegir exactamente qué variables queremos visualizar y cómo correlacionarlas: desde gráficas de aceleraciones y ángulos de volante hasta imágenes de cámara y modelos 3D del vehículo y el entorno.


El resultado es un análisis mucho más rápido, profundo y flexible, que nos permite:


  • Reducir drásticamente el tiempo entre prueba y análisis.

  • Detectar patrones y correlaciones que antes pasaban desapercibidos.

  • Compartir hallazgos rápidamente con todo el equipo, incluso en remoto.



Un acelerador para el desarrollo y la validación


La conducción autónoma y los sistemas avanzados de asistencia no se desarrollan solo en código; se desarrollan en iteraciones rápidas de prueba, análisis y ajuste. Cuanto más corta sea esa iteración, más rápido evolucionará la tecnología.


Gracias a estas herramientas de visualizacion podemos tomar decisiones basadas en datos en cuestión de minutos, validar cambios de software el mismo día y documentar con precisión el comportamiento del sistema en cada escenario. Esto no solo agiliza el trabajo, sino que nos da una trazabilidad completa de cada prueba.


En resumen, esta herramienta se ha convertido en un pilar de nuestro proceso de desarrollo, permitiéndonos visualizar el presente para construir el futuro de nuestra tecnología.



¿Te interesa seguir el progreso?


Suscríbete, siguenos en RRSS o escribenos si representas a un municipio u operador y quieres explorar pilotos en entorno rural.



 
 
 

Comentarios


bottom of page