Tutorial de OpenARK: realidad aumentada, colaboración y ciencia replicable

Última actualización: 21/01/2026
Autor: Isaac
  • OpenARK es un kit de realidad aumentada de código abierto que democratiza el acceso a tecnologías clave como SLAM, reconstrucción 3D y segmentación semántica.
  • La crisis de replicación en ciencias empíricas impulsa cambios en agencias como el NIH y en organizaciones profesionales para exigir más transparencia y replicabilidad.
  • Los tutoriales sobre AR colaborativa subrayan la necesidad de evaluaciones centradas en las personas y métodos específicos para estudiar equipos y comunicación remota.
  • La combinación de infraestructura abierta, buenas prácticas científicas y estudios de replicación permite construir soluciones de AR y MR más fiables e impactantes.

Tutorial de OpenARK y realidad aumentada

La expresión “tutorial de OpenARK” puede sonar un poco críptica si solo has oído hablar de realidad aumentada (AR) por encima, pero detrás de este término se esconde un mundo donde confluyen software libre, investigación científica, telepresencia y una reflexión muy seria sobre cómo hacemos ciencia hoy en día. No es solo “un kit de desarrollo”, sino una pieza dentro de un ecosistema mucho más amplio de tecnologías de realidad mixta y de metodologías de investigación.

A partir de distintas fuentes que hablan de OpenARK, de sus sesiones formativas y del contexto en el que surgió, se dibuja un escenario donde la democratización de la tecnología y la crisis de replicación en la ciencia se dan la mano. En este artículo vamos a hilar todos esos componentes: qué es OpenARK, cómo se enseñó en eventos como ISMAR, qué papel tienen conceptos como SLAM o segmentación semántica, y por qué cuestiones como la replicabilidad de los experimentos o la colaboración en AR son críticas si quieres tomarte en serio este tipo de herramientas.

Contexto: ciencia empírica y la crisis de replicación

Antes de meternos de lleno en OpenARK, es importante entender el telón de fondo: la llamada “crisis de replicación” en las ciencias empíricas. Este término surgió cuando, en campos como la medicina y la psicología, muchos estudios que se consideraban sólidos comenzaron a fallar al ser repetidos. En algunos proyectos de gran envergadura, más de la mitad de los resultados publicados no pudieron reproducirse con éxito.

Esta situación ha generado una duda profunda: ¿hasta qué punto podemos fiarnos de los datos publicados cuando diseñamos tratamientos médicos, políticas públicas o incluso cuando basamos nuevas investigaciones en hallazgos anteriores? La cuestión no se limita a “hay errores”, sino a que el propio funcionamiento de la ciencia empírica, basado en pruebas estadísticas y probabilísticas, choca con la manera intuitiva que tenemos los humanos de pensar, que tiende a ser mucho más absoluta.

En la práctica, las ciencias empíricas se apoyan en la prueba de hipótesis y en el análisis estadístico. Aceptar o rechazar una hipótesis nunca es un sí o un no rotundo: siempre hay una probabilidad de equivocarse, errores tipo I y tipo II, niveles de significación, potencia estadística, etc. El problema es que nuestro cerebro suele traducir “significativo” en “verdadero” y “no significativo” en “falso”, simplificando un proceso que en realidad es mucho más matizado y propenso a la incertidumbre.

Esta desconexión entre el razonamiento probabilístico real y la manera en que lo interpretamos lleva a que resultados que deberían tratarse con cautela se anuncien como verdades firmes. Y ahí es donde la imposibilidad de replicar estudios salta a la vista: si la probabilidad de obtener ciertos resultados por azar no se tiene en cuenta con rigor, es cuestión de tiempo que aparezcan fallos sistemáticos, efectos inflados o hallazgos que solo existían “en los datos originales”.

Una consecuencia importante de esta crisis es que muchas disciplinas han tenido que replantearse cómo publican, qué estándares de evidencia exigen y cómo gestionan temas como el tamaño muestral, el p-hacking o la publicación selectiva de resultados positivos. Es un debate vivo que también afecta a los campos relacionados con la realidad virtual y aumentada cuando sus estudios incluyen sujetos humanos o evalúan la eficacia de sistemas interactivos.

Respuestas institucionales: de NIH a organizaciones profesionales

Ante este panorama, varias agencias de financiación y asociaciones científicas han empezado a cambiar las reglas del juego. Una de las más citadas es el National Institutes of Health (NIH) de Estados Unidos, que ha reaccionado introduciendo medidas concretas para mejorar la reproducibilidad de la investigación que financia.

Entre esas medidas se incluye la financiación específica de estudios de replicación, algo que durante años estuvo bastante infravalorado. En muchos campos, replicar un resultado se consideraba poco “sexy” a nivel de currículum y difícil de publicar, así que casi nadie se animaba a invertir tiempo y recursos en ello. Al crear convocatorias dedicadas y reconocer el valor de este trabajo, el NIH intenta corregir ese sesgo.

Otra pieza clave es la exigencia de que los equipos financiados por estas agencias compartan de forma pública y anonimizada sus datos siempre que sea viable y se respeten cuestiones éticas y de privacidad. Esto abre la puerta a que otros grupos revisen los análisis, repliquen los experimentos con los mismos datos o repliquen el estudio desde cero con nuevas muestras, aumentando drásticamente la transparencia.

  Qué son los agentes de IA para Copilot y cómo van a cambiar tu forma de trabajar

No solo las agencias de financiación se han movido: asociaciones y entidades profesionales, incluyendo organizaciones técnicas como IEEE, han comenzado a reforzar sus políticas editoriales para promover la replicabilidad. Esto implica desde pedir código y datos junto con los artículos hasta fomentar formatos de publicación donde se valoran tanto resultados novedosos como buenas réplicas de experimentos previos.

En conjunto, estas iniciativas apuntan a un cambio de cultura: pasar de un modelo obsesionado con la novedad a otro donde la solidez y la repetición independiente de los resultados tienen un peso mucho mayor. Para áreas que trabajan con sistemas interactivos, arquitectura de software o algoritmos de AR, esto se traduce también en compartir implementaciones, pipelines y guías de uso, algo muy cercano al espíritu de OpenARK.

Cómo encaja la realidad virtual y aumentada en este escenario

En el ámbito de entornos virtuales e inmersivos, muchas contribuciones históricas se han centrado en sistemas, arquitecturas y algoritmos. En esas líneas, la validación suele ser más “absoluta”: o el sistema cumple unos requisitos de rendimiento, o el algoritmo converge con ciertos errores, o la arquitectura soporta X usuarios simultáneos, etc. La lógica detrás de la corrección tiende a ser más determinista.

Sin embargo, cuando hablamos de estudios empíricos con usuarios humanos en estos entornos (por ejemplo, evaluar si una interfaz de AR mejora la colaboración o si un sistema de telepresencia genera mayor sensación de presencia), entramos de lleno en el territorio probabilístico de la ciencia empírica. Y eso implica que la evidencia debe acumularse a través de múltiples estudios, laboratorios diferentes y varios intentos de replicación.

El problema es que muchas comunidades científicas centradas en tecnologías de realidad virtual y aumentada tienden a valorar sobre todo resultados “sorprendentes” o “novedosos” a la hora de aceptar artículos en congresos y revistas. Si el criterio principal para publicar un trabajo empírico es que contenga algo llamativo, se genera un incentivo perverso para buscar efectos grandes y espectaculares, incluso si a nivel estadístico son frágiles o difíciles de repetir.

Si cada estudio que intenta confirmar un resultado anterior se considera “poco original”, lo que ocurre es que la literatura se llena de hallazgos que apenas han sido puestos a prueba de manera independiente. El campo puede dar la impresión de avanzar a gran velocidad, pero la base empírica real sobre la que se apoya es menos firme de lo que parece.

De ahí que distintos expertos planteen la necesidad de que las comunidades de entornos virtuales y AR sean más receptivas a estudios de replicación. Aceptar y valorar artículos que confirmen (o cuestionen) hallazgos previos, aunque no aporten una novedad espectacular, es fundamental si se quiere construir un conocimiento acumulativo y fiable sobre cómo interactúan las personas con estas tecnologías.

OpenARK: un kit de desarrollo abierto para AR y telepresencia

En este panorama cobra especial interés OpenARK, un kit de desarrollo de realidad aumentada de código abierto impulsado desde la Universidad de California, Berkeley. Su objetivo es facilitar el acceso a tecnologías de realidad aumentada y mixta a investigadores, empresas y aficionados, reduciendo barreras de entrada y fomentando la reproducibilidad técnica de los proyectos.

El desarrollo de OpenARK se ha llevado a cabo en el contexto del FHL Vive Center for Enhanced Reality, dirigido por el profesor Shankar Sastry. Allí, con el asesoramiento de investigadores como la Dra. Yang y la colaboración constante con estudiantes de doctorado, se ha ido construyendo una plataforma capaz de integrar componentes clave de AR y MR, desde el procesamiento de visión por computador hasta la interacción en tiempo real con el entorno.

Una parte central del trabajo con OpenARK ha consistido en preparar lanzamientos de código estables, procesos de compilación claros y una serie de guías de uso orientadas a que cualquier usuario de Windows pudiera instalar, configurar y empezar a experimentar con el kit sin volverse loco. Esta atención al detalle en la documentación y en la experiencia del desarrollador forma parte de la filosofía de democratizar la tecnología.

Paralelamente, los equipos detrás de OpenARK han trabajado en extender esa misma facilidad de uso al ecosistema Linux, donde muchos laboratorios de investigación y desarrolladores avanzados despliegan sus sistemas. El objetivo es ofrecer una experiencia homogénea entre plataformas, reduciendo la fricción tanto para prototipado rápido como para proyectos más complejos de investigación aplicada.

Al trabajar tan cerca de doctorandos y expertos en realidad mixta, los responsables de OpenARK han ido profundizando en tecnologías nucleares de MR como los algoritmos SLAM (Simultaneous Localization and Mapping), la reconstrucción 3D del entorno y la segmentación semántica de escenas. Todos estos elementos son fundamentales para que un sistema de AR pueda entender dónde está, cómo es el entorno y qué objetos lo componen.

Telepresencia, ISMAR y difusión del conocimiento

OpenARK no se ha quedado encerrado en un laboratorio, sino que ha dado el salto a la comunidad internacional a través de tutoriales y sesiones específicas en congresos. Un hito importante fue la coorganización de una sesión de tutorial de OpenARK en ISMAR 2019, celebrada en Pekín, uno de los foros más relevantes en realidad aumentada y mixta.

  Cómo crear apps con Microsoft Copilot en Power Apps

En aquella ocasión, parte del equipo impartió una presentación de una hora centrada en proyectos de telepresencia desarrollados sobre la base de OpenARK. La idea era mostrar cómo el kit de desarrollo se encaja en escenarios en los que varias personas, posiblemente separadas geográficamente, pueden compartir un entorno aumentado y colaborar como si estuvieran juntas.

Durante el tutorial se explicaron las funcionalidades principales del kit, cómo se integran los módulos de visión por computador, tracking, reconstrucción del entorno y representación gráfica, y de qué modo esas piezas se pueden combinar para crear experiencias de telepresencia inmersiva. Para muchos asistentes, esto supuso una puerta de entrada práctica a un conjunto de tecnologías que, de otro modo, requerirían meses de trabajo para poner en marcha desde cero.

Más allá de la parte técnica, la filosofía de estos tutoriales era que cualquier persona interesada —desde investigadores y patrocinadores corporativos hasta “makers” y aficionados avanzados— pudiera entender y reutilizar estas herramientas para sus propios proyectos. El énfasis estaba en hacer proyectos accesibles que permitan a otros expresarse creativamente y avanzar de manera colaborativa en el campo de la realidad mixta.

Este enfoque se alinea con una visión de la tecnología donde el código abierto, la documentación cuidada y la voluntad de compartir buenas prácticas se convierten en piezas clave para una ciencia y una ingeniería más transparentes. En un entorno marcado por la crisis de replicación, ofrecer plataformas abiertas como OpenARK facilita que otros reproduzcan, extiendan y comprueben resultados técnicos de manera independiente.

Colaboración y AR desde una perspectiva centrada en las personas

En paralelo a iniciativas como OpenARK, distintos grupos han empezado a mirar la realidad aumentada desde un prisma muy humano. Un ejemplo son los tutoriales centrados en colaboración mediada por AR y diseño centrado en el usuario, como los organizados por investigadores de la Universidad de Aveiro en entornos virtuales.

En una de estas sesiones, celebrada en formato virtual (Sala Virtual 3 vía Zoom) durante una jornada de congreso, participaron como ponentes Bernardo Marques, Samuel Silva, Paulo Dias y Beatriz Sousa Santos. La sesión se desarrolló en un horario de tarde (15:30-18:30 GMT+8), con una estructura orientada a cubrir conceptos básicos y luego abrir el debate hacia líneas de investigación futuras.

El foco del tutorial estaba en presentar conceptos esenciales de colaboración y tecnologías de AR desde una perspectiva profundamente centrada en las personas. En lugar de partir directamente de la tecnología, se analizaban elementos como la composición del equipo, la gestión del tiempo, los tipos de tareas, los canales de comunicación, la captura de la escena y las fuentes de contexto compartido.

Otros aspectos clave eran la manera en que los usuarios pueden actuar e intervenir en el entorno aumentado y qué necesidades tienen para que la colaboración a distancia sea de verdad eficaz: coordinación de roles, visibilidad de las acciones de los demás, referencia a objetos comunes, etc. Sobre estos pilares se asentaba una propuesta de cómo evaluar y hacer evolucionar las tecnologías de AR colaborativa.

Tras la introducción conceptual, los ponentes analizaron la madurez actual del campo y un posible mapa de ruta de acciones de investigación prioritarias. Subrayaron que buena parte del trabajo existente se ha centrado más en crear la tecnología habilitadora y sortear problemas de ingeniería que en evaluar a fondo cómo colaboran las personas entre sí cuando utilizan estos sistemas.

Uno de los puntos más críticos que se mencionó es que muchos estudios aún se basan en métodos pensados para usuarios individuales, lo que resulta insuficiente para analizar soluciones colaborativas. Al no capturar datos ricos sobre la interacción entre varios participantes, los resultados se quedan cortos para comprender qué hace que una experiencia colaborativa en AR sea realmente efectiva.

Esto sugiere que los marcos teóricos y metodológicos existentes ofrecen un apoyo limitado para el análisis de colaboración mediada por AR. Hay una falta visible de teorías y directrices específicas que guíen tanto el diseño de sistemas como su evaluación. Con el incremento constante de prototipos y soluciones experimentales, se hace urgente trazar un camino claro hacia interfaces utilizables, realistas e impactantes en entornos reales de trabajo.

Hacia evaluaciones más completas en AR colaborativa

Una de las llamadas a la acción más importantes de estos tutoriales es que la evaluación de tecnologías de AR no puede limitarse a comprobar si “la tecnología funciona” a nivel técnico. Es indispensable ir más allá, midiendo cómo esa tecnología influye en la dinámica de equipo, en la comunicación y en los resultados de la tarea.

Los organizadores proponen que las evaluaciones incluyan datos cuantitativos y cualitativos sobre aspectos como: cómo se organiza el grupo para completar una tarea, qué patrones de comunicación emergen, de qué modo la AR ayuda (o no) a construir un terreno común entre los participantes, o cómo cambia la percepción de presencia social y confianza entre miembros del equipo.

  Funciones imprescindibles de Gemini en Android

Para ello, se hace necesario diseñar estudios que contemplen escenarios colaborativos realistas, más allá de tareas artificiales o demasiado simplificadas. También es clave desarrollar instrumentos de medida adaptados a la naturaleza de la interacción aumentada: cuestionarios específicos, métricas de coordinación, análisis de logs de interacción, grabaciones de sesiones, etc.

Hacia el final del tutorial, los ponentes plantean la necesidad de una fase de discusión abierta con los asistentes, donde se puedan compartir dudas, opiniones y posibles líneas de investigación a futuro. Esta conversación no se limita a cuestiones técnicas, sino que abarca aspectos éticos, de usabilidad, de accesibilidad y de impacto social de la AR colaborativa.

El trabajo presentado en este tipo de iniciativas se ha desarrollado dentro de proyectos financiados, como una beca de doctorado de la FCT (SFRH/BD/143276/2019), el apoyo del instituto IEETA en el marco del proyecto UIDB/00127/2020 y el proyecto Smart Green Homes (POCI-01-0247-FEDER-007678), en colaboración entre Bosch Termotecnologia S.A. y la Universidad de Aveiro. Estos apoyos muestran que la investigación en colaboración y AR no es solo un tema académico aislado, sino que interesa también a la industria y a instituciones nacionales.

Dentro de este contexto, kits como OpenARK pueden servir de infraestructura técnica sobre la que desplegar y evaluar soluciones colaborativas. Al disponer de una base de código abierto para captura de escena, seguimiento y representación, quienes investigan en colaboración AR pueden concentrarse más en el diseño de la experiencia y en la evaluación rigurosa que en reinventar continuamente la parte baja de la pila tecnológica.

Infraestructura abierta y bases de datos: paralelismos con otros proyectos

Cuando se habla de herramientas abiertas para AR como OpenARK, es interesante establecer paralelismos con otros proyectos de infraestructura abierta en el ámbito de bases de datos y sistemas distribuidos, como los que se presentan en conferencias técnicas sobre Vitess y ecosistemas similares.

En una de las referencias relacionadas con este contexto se menciona una charla titulada “Open Source Database Infrastructure with Vitess”, alojada en SpeakerDeck. Aunque se centra en bases de datos, la filosofía subyacente es muy parecida: ofrecer una infraestructura sólida y escalable, de código abierto, que permita a empresas y proyectos de investigación administrar datos de forma fiable a gran escala.

El hecho de que este tipo de materiales se compartan en plataformas abiertas y con identificadores públicos (como un código del tipo 17425f-bd04-487d-a71d-9b8b70dec73b) revela una misma tendencia: documentar, versionar y distribuir el conocimiento técnico de manera que otros puedan estudiarlo, replicarlo y construir sobre él sin partir de cero.

Del mismo modo que la infraestructura de bases de datos abierta busca facilitar la escalabilidad, observabilidad y mantenimiento de sistemas complejos, un kit como OpenARK pretende democratizar el acceso a los bloques fundamentales de la realidad aumentada: captura del entorno, seguimiento de pose, reconstrucción geométrica, segmentación semántica y renderizado coherente con el mundo físico.

Este tipo de proyectos de infraestructura tecnológica abierta son aliados naturales de una ciencia más reproducible y transparente. Al permitir que los investigadores compartan no solo sus resultados, sino también las herramientas concretas con las que se generaron esos resultados, se cierra parte de la brecha entre “lo que dice el artículo” y “lo que puedo probar por mí mismo en mi laboratorio”.

Si lo miramos en conjunto, vemos cómo convergen varias líneas: por un lado, la reflexión sobre la crisis de replicación y la necesidad de replicar estudios empíricos; por otro, la construcción de herramientas abiertas como OpenARK o Vitess que hacen más fácil reproducir condiciones técnicas; y, en tercer lugar, la apuesta por evaluaciones profundas y centradas en las personas en aplicaciones como la AR colaborativa. Todo ello contribuye a un ecosistema donde la innovación y la fiabilidad no están reñidas, sino que se refuerzan mutuamente.

La combinación de plataformas abiertas bien documentadas, agencias de financiación que exigen transparencia, organizaciones profesionales que impulsan buenas prácticas y comunidades de usuarios críticas con la calidad de la evidencia sienta las bases para que tecnologías como OpenARK no sean solo demostraciones llamativas, sino herramientas estables sobre las que construir conocimiento duradero y soluciones aplicadas que funcionen en el mundo real. Se trata de que la AR, la MR y la telepresencia dejen de ser promesas vagas y se conviertan en prácticas sólidas, colaborativas y replicables para investigadores, empresas y personas curiosas que quieren experimentar y aportar algo nuevo.

qué es un curador de realidades sintéticas-0
Artículo relacionado:
Curador de realidades sintéticas: el nuevo intermediario entre humanos y máquinas