Archive for the ‘Interfaces’ Category

Interfaces AR y VR

lunes, mayo 6th, 2019
page1image416

Composición Grafica Para Interfaces

Nombre: Cristian Camilo Guiott Vargas

Carrera: Diseño Interactivo

Interfaces AR y VR

Las aplicaciones de realidades mixtas cada vez son más comunes, en la actualidad la realidad aumentada y la realidad virtual permiten generar espacios sintéticos con los que los usuarios interactúan en tiempo real dando una sensación de libertad en la interacción con los entornos virtuales.

La realidad aumentada y la realidad virtual manejan un sistema de interfaces que simulan la realidad y hacen entender al usuario que pueden interactuar completamente con las mismas, ¿pero son completamente funcionales?.

Históricamente,la función de las interfaces se han fundamentado en las 2D (dos dimensiones) dando una metodología de uso no tan compleja para el usuario, pues este interactúa de manera sencilla controlando sus movimientos a través de un mando,esencialmente oprimiendo botones físicos para seleccionar o realizar algún tipo de acción y y cuando entendemos la referencia del botón es algo que tiene profundidad y al tocarlo este se hunde, a partir de este momento la usabilidad de las realidades mixtas se torna más compleja pues el usuario debe interactuar con algún periférico físico para realizar acciones en la realidad aumentada o virtual y esto hace que la inmersión la cual es el objetivo principal de estas realidades se pierda o no sea completamente satisfactoria para el usuario.

Dando una solución a estos problemas, las interfaces de la realidad aumentada y realidad virtual han evolucionado con el tiempo, para poder interactuar de manera virtual con los elementos generados por estas realidades. Prueba de ello es tomar un texto en distintos niveles de profundidad generando una separación de los textos con el fondo viéndose con un botón, o tomando elementos reconocibles por el usuario como botones o centros de acción y distribuirlos por el espacio de manera adecuada dándoles profundidad para darle la guía al usuario de que esos objetos tridimensionales que sostenía en el espacio real, también se hallan en un espacio virtual y que puede interactuar con ellos de manera virtual, bien sea mirando fijamente el botón o haciendo algún tipo de gesto con las manos. Todo esto es posible gracias a el avance a pasos agigantados de la tecnología,puesto que ahora podemos incluir un rastreador de movimiento para así detectar a donde están mirando los ojos o reconocer cuales son los gestos que el usuario está realizando.

page1image20792page1image20952page1image21112

1

page1image21720

page2image416

La interacción del usuario en estas realidades es implícita, contrario de una interacción en dos dimensiones pues acá el usuario debe actuar de forma explícita. Esto conlleva a que el usuario utilice un esquema de comunicación determinado por la interfaz de la aplicación. En estos casos el usuario debe recordar comandos o partes gráficas para poder realizar la acción y comunicarle de manera física con la interacción de un mando o controlador (teclado,control).

La interacción implícita que realiza el usuario con la realidad aumentada y la realidad virtual se basa en movimientos naturales que captan la voluntad del usuario, un ejemplo claro es el manejo de la cámara dentro de un videojuego o aplicación: en un sistema de realidad aumentada o realidad virtual la cámara se desplaza con el movimiento del usuario, es decir que si el usuario quiere ver hacia arriba,abajo, atrás,adelante o los lados, solo debe girar su cabeza o cuerpo de forma natural sin tener que recordar algún tipo de comando tal y como lo hace en la mundo real.

Otro gran ejemplo es la interacción con los elementos disponibles en la escena de la realidad aumentada y la realidad virtual, pues si el usuario quiere tomar un objeto, cerrar una ventana o accionar una palanca, lo único que debe hacer es tomar los objetos y llevar a cabo la acción que haría en el mundo real.

Las realidades mixtas fundamentalmente proporcionan un espacio de interacción hombre-maquina que permiten al usuario olvidar que se encuentra en un espacio real y lo transportan a un mundo virtual,bien sea poniendo elementos virtuales a la realidad (realidad aumentada) o sustituir la realidad con elementos netamente virtuales (realidad virtual).

page2image14736page2image14896page2image15056

2

page2image15664Ensayo

UI en VR y AR o cómo adaptar conceptos viejos a las nuevas tecnologías

lunes, mayo 6th, 2019
Autor: Camila Rueda

En los últimos años la idea de poder crear nuevas realidades a partir de tecnologías que permitan alterar nuestra realidad para crear otras, resulta ser algo demasiado atractivo como para no prestar interés, es por eso que los entusiastas de estas tecnologías terminan adentrándose al mundo de la VR y la AR topándose con nuevos desafíos que deben afrontar con base a las soluciones que le han dado a estos retos en otras plataformas, pero adaptándolas a la idea de estas nuevas realidades, es por esto que a continuación revisaremos estas soluciones con la intención de conocer la mejor manera de afrontar estos desafíos.

Como es el caso de diferentes plataformas, existen reglas por seguir cuando nos referimos al diseño de las interfaces, reglas que se podrían llegar a romper siempre y cuando se justifique esta acción, sin embargo creo que al ser plataformas tan nuevas lo mejor es seguir estas guías mientras terminamos de entender la idea de estas nuevas realidades.

1. Realidad Virtual

La VR nos permite vivir una inmersión dentro de un espacio virtual, normalmente con la ayuda de un headset donde tenemos una visualización del entorno digital gracias a nuestros ojos y cuello que permiten una rotación, este tipo de plataforma se conoce como 3DoF (Degrees of Freedom) donde podemos visualizar el espacio por medio de la rotación, y podríamos llegar a movernos en él espacio gracias un control como Daydream. Así mismo tenemos otra plataforma que nos permite movernos por el espacio gracias a la rotación y a la posición, se conoce como 6DoF.

Independiente de cual sea la plataforma que se va a utilizar, en ambas tenemos el concepto de rotación y es gracias a esta idea que podemos empezar a construir nuestras interfaces, nuestras pantallas virtuales.

 

1.1. Pantallas virtuales: Considerando que tenemos una pantalla donde se puede visualizar un escenario, y otra pantalla de interfaz donde se encuentran los textos, iconos y botones, lo ideal es definir la distancia que ambas pantallas tendrán del usuario. Es aquí cuando entra un nuevo concepto que nos ayudará a entender la distancia de las pantallas en diferentes escenarios, dmm.

1.1.1. dmm: O distance-independent millimeter, es una unidad que se podría traducir como 1 milímetro visto a 1 metro de distancia, esto nos ayuda a identificar las diferentes medidas que una pantalla virtual podría tener según su distancia con la intención de no perder la estructura de la pantalla.

Digamos una pantalla que tenga las siguientes medidas 400 x 480 dmm y se encuentre a 1 metro de distancia, tendrá estas medidas 800 x 960 dmm cuando se encuentre a 2 metros de distancia (multiplicando x2 la medida en dmm inicial) y 1200 x 1440 dmm cuando se encuentre a 3 metros (x3).

1.1.2. Distancia: En general, la distancia más recomendada es 1 metro de diferencia entre el usuario y la pantalla virtual del escenario, mientras que la pantalla de interfaces se puede ubicar un poco más cerca de la vista del usuario para presentar una profundidad y diferencia entre estas dos pantallas, además de facilitar la interacción que el usuario tendría con botones, textos o iconos, demostrando su dominancia en ciertos momentos.

 

Una vez conozcamos la mejor manera de entender la distancia, nos encontramos con el siguiente desafío y es la distribución de los elementos dentro de las pantallas, volviendo a retomar la idea de rotación.

 

1.1.3. Rotación: Lo siguiente se concluyó considerando los movimientos de rotación que se pueden hacer con el headset, o factores ergonómicos.

1.1.3.1 Ojos: Empezando por los ojos los cuales determinan el espacio preferible para ubicar la pantalla de interfaz, o por lo menos su elementos más importantes.

Considerando que los ojos pueden hacer una rotación de 30 a 35 grados de arriba a abajo y de derecha a izquierda sin sentir incomodidad, se determinó que el mejor lugar para la pantalla de interfaces debería ser en este espacio de 60 grados determinado por los ojos, ubicando este radio en el centro de la pantalla.

1.1.3.2. Cuello: La siguiente rotación la determina el cuello, el cual puede girar 120 grados de izquierda (60°) a derecha (60°) y 100 grados de arriba (60°) a abajo (40°), por lo que el espacio total dispuesto por el cuello para visualizar las pantallas virtuales sin sentir incomodidad son 120 grados, espacio donde se podrán colocar elementos no tan sustanciales de la interfaz.

 

Finalmente debemos tener en cuenta que nuestros ojos están acostumbrados a mantener la vista baja, por lo que es necesario que la interfaz principal que se encuentra dentro de esos 60 grados determinados por los ojos, se distribuya bajo una línea horizontal creada desde los 10 grados alrededor del medio de esos 60 grados, donde debería estar el puntero.

 

1.2. Elementos: Los elementos como los textos, los botones y los iconos se determinan por los dmm, los cuales podríamos traducir a píxeles donde 1 dmm equivale a 1 px. En general, el valor de los textos puede variar entre los 20 y 40 dmm según sea la necesidad, mientras que los botones o selectores pueden ser de 64 x 64 dmm a 96 x 96 dmm con un padding de 16 dmm. Claramente estos valores podrían cambiar según las necesidades, y lo mejor es que estos elementos mantengan una buena distancia entre sí, en especial si se puede interactuar con ellos, ya que se podría llegar a confundir los selectores.

Una práctica que podría ayudar a ver la pantalla de escenario sin ser obstaculizada por la pantalla de interfaz es jugar con la tensión, el tamaños, la opacidad de la misma.

1.3. Respuesta: También se puede contar con otros elementos que pueden llegar a complementar la experiencia del usuario como un audio envolvente y efectos en la pantalla de escenarios ya que el uso de estas herramientas nos puede evitar el uso de más elementos dentro de la pantalla de interfaces, evitando una saturación de información. Igualmente se puede jugar con diferentes animaciones tanto en la pantalla principal como en la de interfaces para guiar al usuario.

1.4. Brillo y contraste: Finalmente se me ocurre que es necesario tener presente estos conceptos considerando que nuestros ojos son muy sensibles a los cambios de luz y en algunos momentos a los colores chillones, por lo que personalmente optaría en usar colores planos y cuidar los posibles cambios de luminosidad entre escenas.

 

La Realidad Virtual termina manejando dos plataformas, una que le permite al usuario navegar por el escenario gracias a la rotación y a un posible control que lo teletransporte por el escenario según un punto fijado por el control, y otra que lo permite mover su posición caminando por el escenario y usando la rotación. En ambas plataformas la rotación permite la interacción en el escenario, es por eso que la creación y posicionamiento de las pantallas virtuales se determina a partir de esto, mientras que la distancia lo hace gracias al dmm, medida que nos permite traducir una medida tan común en nuestra realidad como lo son los metros en una medida como los milímetros/pixeles.

 

2. Realidad Aumentada

Por otro lado la realidad aumentada nos ofrece la posibilidad de interactuar con nuestra realidad y le agrega un nivel digital donde por medio de nuestra pantalla podemos ver objetos digitales en nuestra realidad. Esto se puede evidenciar de la siguiente manera:

 

2.1. Imágenes aumentadas: Nos permite identificar imágenes en 2D que tras ser rastreadas pueden proyectar alguna animación en nuestra pantalla.

2.2. Rastreo de movimiento: Dónde la plataforma rastrea nuestro movimiento alrededor de un espacio, reconociendo nuestros puntos en X, Y y Z.

2.3. Entender el ambiente: De esta manera se pueden reconocer paredes, pisos o superficies inclinadas donde se puedan ubicar diferentes objetos. También nos permite conocer las medidas de un espacio al hacer un rastreo de puntos específicos del mismo.

2.4. Estimación de luz: Esta función permite identificar y entender cómo funcionan las luces en determinado escenario y proyectar los objetos a partir de este análisis.

 

Estas funciones le permiten al usuario tener una mejor experiencia con la AR, pero es necesario considerar otros factores para que nuestro usuario tenga una inmersión en nuestra aplicación.

 

2.5. Definición del espacio: Conocer el espacio donde se va a proyectar el resultado digital es importante ya que con esta información podemos saber el tamaño al cual se deberá adaptar el objeto digital para poder coincidir con el espacio. En general se trabajan tres espacios: Tamaño de mesa, donde las proyecciones se limitan a un espacio pequeño; Tamaño de habitación, en este espacio la proyección resulta ser más grande; Tamaño del mundo, claramente el tamaño más grande donde literalmente el mundo es nuestro canvas.

2.6. Movimiento: Este factor debería dejar que el objeto digital pueda ser transformado, su rotación, su escala, su posición; al igual que el movimiento del usuario. Al estar acostumbrados de utilizar aplicaciones 2D, la idea de que podamos movernos por el espacio para poder visualizar las cosas termina siendo algo nuevo para nosotros, es por eso que debemos hacerle caer en cuenta al usuario que tiene la libertad de moverse en el espacio y de poder mover el objeto también, lo que nos lleva al siguiente punto.

2.7. Feedback: Es importante que desde el principio el usuario tenga una respuesta desde la aplicación, como el momento en el que se reconoce el espacio, poder mostrar las instrucciones dentro del mismo espacio. Cuando se tiene un objeto seleccionado, destacar su presencia frente a los demás elementos. Impulsar al usuario a moverse en el espacio gracias a elementos que se salgan de la pantalla y lo obliguen a moverse para que dicho objeto esté dentro de su pantalla. Contrastar la forma que se identifica gracias a colores o texturas diferentes.

2.8. Realismo: Agregar animaciones tanto en la interacción como en los objetos digitales, sobras, profundidad, texturas, puntos de luz.

 

En general la Realidad Aumentada nos presenta un fácil reconocimiento de nuestra realidad la cual podemos intervenir con objetos digitales, aumentando nuestra realidad.

 

Tanto la Realidad Virtual como la Realidad Aumentada son plataformas con nuevas propuestas par la interacción del usuario. Personalmente me gusta la oportunidad que ofrecen ambas plataformas de intervenir las realidades con objetos 3D y considero que es un desafío poder desprendernos de el mundo 2D al cual estamos acostumbrados en las pantallas, pero con las observaciones que analizamos anteriormente, tenemos las herramientas suficientes para enfrentarnos a estas nuevas plataformas, a estas nuevas realidades.

 

Bibliografía y referentes: