Localización visual-inercial en tiempo real para aplicaciones de XR | Defensa de Trabajo Especial

28 Marzo 2022 - Aula Magna FAMAF Estudiantes

A cargo de Mateo de Mayo

Director: Dr. Nicolás Wolovick

Resumen: Las aplicaciones de realidad virtual (VR), aumentada (AR) y sus derivadas, englobadas dentro del término XR, necesitan métodos para localizar y entender los movimientos realizados por el usuario y así poder actualizar la simulación que ejecutan de manera acorde. El problema de localización ha sido uno de los mayores desafíos a la hora de producir dispositivos de realidad virtual para electrónica de consumo en los últimos años. Afortunadamente, han ocurrido grandes avances en la localización visual-inercial mediante cámaras y sensores inerciales; dados principalmente gracias a su continua mejora y abaratamiento relacionados con su producción masiva para telefonía móvil. A pesar de esto, sistemas de este tipo que puedan ser utilizados para XR se desarrollan mayormente como parte de productos privativos. En este trabajo, se estudian sistemas de localización visual-inercial provenientes de la academia y se detallan las dificultades propias de integrarlos y adaptarlos para aplicaciones de XR. En particular se los integra con Monado, la implementación de código libre del estándar OpenXR. De esta forma, se presenta una de las primeras soluciones completamente libres que permite localizar dispositivos XR con este tipo de métodos visual-inerciales en sistemas operativos basados en GNU/Linux.