Saltar al contenido
Noticias de tecnologia

Realidad cruzada: cuando los sensores se encuentran con la realidad virtual

Realidad cruzada: cuando los sensores se encuentran con la realidad virtual

Durante mi reciente visita al MIT en Boston, me reuní con Joseph Paradiso, profesor asociado y director del Responsive Environments Group del MIT Media Laboratory. Me mostró algunas demostraciones de lo que está haciendo su laboratorio, centrándose principalmente en lo que se denomina “Realidad cruzada”. Aquí es cuando las redes de sensores / actuadores se encuentran con mundos virtuales en línea.

Paradiso fue coautor de un artículo que se acaba de publicar en la edición de julio-septiembre de la revista IEEE Pervasive Computing. El documento describe y analiza los experimentos de Cross Reality realizados en Second Life, el mundo virtual más popular con 15 millones de suscriptores actuales. En esta publicación, le daremos una descripción general del periódico, porque creemos que esta tendencia es importante para el futuro de la Web.

¿Qué es Cross Reality?

Cross Reality se trata de conectar “construcciones animadas en 3D específicas de la ubicación” en mundos virtuales con instalaciones de sensores en edificios.

El documento señala que “la convergencia de mundos virtuales en 3D compartidos con fuentes de datos populares basadas en la web para formar una” Segunda Tierra “se ha predicho ampliamente”. También ha sido el tema de muchas novelas de ciencia ficción. Por eso es interesante ver los últimos experimentos prácticos en esta “hiperrealidad”.

Cabe señalar que ya existen aplicaciones comerciales. El documento apunta a la visualización de IBM del funcionamiento del centro de datos y la tecnología ProcessLife de VRcontext. Este último “utiliza réplicas virtuales en 3D de alta fidelidad de plantas o fábricas reales para navegar de forma remota e influir en los procesos industriales en tiempo real”.

Tiras ondulantes de energía

En uno de sus proyectos, el MIT creó un entorno de realidad cruzada llamado “ShadowLab”, que es un mapa de Second Life del tercer piso del Media Lab animado por datos recopilados de una red de 35 “regletas de alimentación inteligentes cargadas de sensores” (también conocidas como PLUGs ). El MIT eligió utilizar regletas de enchufes “porque ya son omnipresentes en oficinas y hogares”, además de que tienen energía y se pueden conectar a una red.

Virtual DataPond en el Virtual Atrium (izquierda) y un DataPond real en el Media Lab Atrium real (derecha)

El MIT agregó otras funciones a las regletas de enchufes a través de tarjetas de expansión, como sensores de movimiento, sensores de temperatura y tarjetas de memoria para el registro de datos local.

Portales de sensores ubicuos

El MIT también ha creado una red de portales completa que mapea sensores a mundos virtuales, llamada Ubiquitous Sensor Portal. Actualmente hay 45 portales en el Media Lab, cada uno con una gran variedad de sensores ambientales, como movimiento, nivel de luz y sonido, vibración, temperatura y humedad. Tienen una pequeña pantalla táctil y un altavoz de audio para la interacción del usuario.

Los portales también actúan como estaciones base para una red 802.15.4 dentro del laboratorio, “permitiendo la comunicación inalámbrica con una variedad de sensores portátiles”. Cada portal tiene una extensión a Second Life, lo que permite a las personas visitar el Media Lab de forma virtual. Este tampoco es un proceso unidireccional; Además de afectar a los mundos virtuales, las interacciones de los portales pueden empujar los fenómenos virtuales al espacio físico del usuario.

Dos vistas de la extensión virtual de un Portal a Second Life; el primero muestra los datos del sensor a lo largo del tiempo, el segundo transmite audio / video en tiempo real a Second Life.

Móvil

El MIT espera que las computadoras de mano y los dispositivos móviles desempeñen un papel importante en las futuras aplicaciones de Cross Reality, “tanto como fuente de datos para animar los entornos y avatares de sus usuarios como terminales de realidad aumentada a través de los cuales se pueden explorar y programar las redes de sensores locales”. El laboratorio ya ha comenzado a experimentar en esta área, con un dispositivo inspirado en Star Trek que llama Tricorder (imagen a la derecha) y un dispositivo más nuevo llamado “Ubicorder”. Ambos dispositivos proporcionan una interfaz en tiempo real para los datos del sensor.

El MIT espera que el área móvil de la realidad cruzada se expanda rápidamente “una vez que la realidad aumentada de los teléfonos inteligentes mejore

establecido.” ReadWriteWeb ha seguido de cerca esta tendencia; lea nuestro reciente análisis de realidad aumentada aquí y aquí.

Conclusión

Los proyectos del Responsive Environments Group en MIT están permitiendo que los datos del mundo real, cada vez más proporcionados por redes de sensores / actuadores, se conecten a interfaces virtuales y físicas.

El grupo todavía está explorando los aspectos técnicos y prácticos de esto, por lo que no está claro a qué conducirá en el mundo comercial. Pero estamos seguros de que impulsará la innovación de nuevas empresas en el próximo año o dos. ¡Mira este espacio!