Apple ha estado trabajando en realidad aumentada durante los últimos dos años, y este año, en WWDC18, Apple lanzó su última versión de su marco AR: ARKit 2. El lanzamiento de este año está repleto de nuevas características, y en este artículo, Veremos las novedades de ARKit 2..
Antes de profundizar en los cambios, tomemos un momento para revisar qué es ARKit en realidad. ARKit es un marco que permite a los desarrolladores crear aplicaciones de realidad aumentada inmersiva para dispositivos iOS. Con este marco, los desarrolladores ya no necesitan hardware costoso para una AR realista, sino que solo necesitan la cámara incorporada de su dispositivo iOS.
Debido a que ARKit funciona solo con la cámara y los sensores integrados de su dispositivo iOS, se requiere un software sofisticado para que los objetos virtuales parezcan reales en la escena. Utiliza detección de planos horizontales, puntos de características y estimación de luz para dar a los objetos virtuales características realistas.
ARKit es desarrollado por Apple, por lo que, obviamente, se ejecuta en sus dispositivos, más específicamente, en dispositivos iOS. Estos dispositivos móviles contienen ciertos sensores que ARKit aprovecha al máximo para colocar objetos en el mundo real. Un acelerómetro incorporado y una cámara se pueden encontrar en dispositivos iOS, y ARKit usa una combinación de estos dos componentes para la realidad aumentada.
El estado de la sesión en un mapa del mundo incluye el conocimiento de ARKit del espacio físico en el que el usuario mueve el dispositivo (que ARKit utiliza para determinar la posición y orientación del dispositivo), así como cualquier objeto ARAnchor agregado a la sesión (que puede representar real detectados). características del mundo o contenido virtual colocado por su aplicación). -Aplicación de la documentación.
De acuerdo con la definición de Apple, un mapa del mundo incluye anclajes, objetos y otras características que ARKit utiliza para mantenerse al tanto del espacio que rodea al usuario. En la versión actual de ARKit, estos mapas se crean al inicio de la sesión y se eliminan al final.
ARKit 2 ofrece la posibilidad de conservar estos mapas del mundo, lo que le permite compartir estas experiencias con otros o guardarlas para usarlas en la misma aplicación más adelante..
Los mapas del mundo persistentes significan que puede retener el progreso del usuario y permitir que el usuario comience de nuevo rápidamente donde lo dejó. Esto abre posibilidades tales como juegos de creación de bloques en los que el usuario completa el juego en una serie de pasos o niveles y no solo en una sesión..
Con la capacidad de almacenar y compartir mapas del mundo, dos dispositivos pueden rastrear el mismo mapa del mundo, lo que permite juegos multiusuario y otras experiencias compartidas de realidad aumentada. Por ejemplo, puedes jugar un juego virtual de aplastar torres con múltiples dispositivos.
Las texturas del entorno son texturas de mapa de cubo que representan la vista en todas las direcciones desde un punto específico de una escena. En la representación de activos en 3D, las texturas del entorno son la base de los algoritmos de iluminación basados en imágenes donde las superficies pueden reflejar de manera realista la luz de su entorno. ARKit puede generar texturas de entorno durante una sesión de AR utilizando imágenes de la cámara, lo que permite que SceneKit o un motor de renderizado personalizado proporcionen una iluminación realista basada en imágenes para objetos virtuales en su experiencia de AR. -Aplicación de la documentación.
Cuando se utiliza la realidad aumentada, es importante hacer que los objetos se mezclen con el entorno que los rodea. En la primera versión de ARKit, características como la detección de luz ambiental intentaron que el objeto virtual "encajara" con la escena.
ARKit 2 permite que los objetos reflejen las texturas alrededor de ellos. Por ejemplo, si se coloca una bola virtual brillante junto a un plato de fruta, podrá ver el reflejo de esa fruta en la bola, y la iluminación de los objetos virtuales ya no se realiza, sino que se basa en imágenes..
Una forma de crear experiencias de AR atractivas es reconocer las características del entorno del usuario y usarlas para desencadenar la aparición de contenido virtual. Por ejemplo, una aplicación de museo puede agregar visualizaciones 3D interactivas cuando el usuario apunta su dispositivo a una escultura o artefacto. Documentación de Apple
Los objetos tridimensionales están en el núcleo de ARKit, ¿no es así? La última versión de este marco trae algo que nunca antes fue posible: la capacidad de escanear y reconocer estos objetos.
ARKit 2 desbloquea la capacidad de los museos u organizaciones similares para "escanear" sus exhibiciones y permitir que aparezcan paneles de información sobre la estatua. Esto puede ahorrar un espacio valioso al eliminar tableros de información físicos y permitir que la información se actualice rápidamente.
Los entusiastas de las figuras de acción pueden escanear su colección para ingresar información o hacer que sus figuras de acción cobren vida. En WWDC18, vimos la aplicación LEGO que permite que los sets de LEGO cobren vida y permitan experiencias multijugador.
Una configuración de seguimiento facial detecta la cara del usuario en vista de la cámara frontal del dispositivo. Al ejecutar esta configuración, una sesión de AR detecta la cara del usuario (si está visible en la imagen de la cámara frontal) y agrega a su lista de anclas un objeto ARFaceAnchor que representa la cara. Cada anclaje facial proporciona información sobre la posición y orientación de la cara, su topología y las características que describen las expresiones faciales.-Documentación de Apple
Con la introducción del iPhone X, vimos Face ID y Animoji por primera vez en plataformas iOS, y durante WWDC18, Apple amplió esto y agregó una versión más básica de reconocimiento facial usando solo la cámara (Face ID usa un punto IR). proyector, también).
En ARKit 2, se puede determinar la posición de la cara en el espacio, la forma y la expresión facial. Esta información se puede utilizar para crear "filtros inteligentes" u otras aplicaciones que hacen uso de la cara.
Apple está introduciendo un nuevo formato de archivo abierto, usdz, que está optimizado para compartir aplicaciones como Mensajes, Safari, Correo, Archivos y Noticias, al tiempo que conserva potentes gráficos y funciones de animación. Con Usdz, Quick Look for AR también permite a los usuarios colocar objetos 3D en el mundo real para ver cómo funcionaría algo en un espacio.-Documentación de Apple
En colaboración con Pixar, Apple introdujo un nuevo formato de archivo para objetos 3D en ARKit 2. Esto permite que estos objetos virtuales se compartan utilizando un formato único, abierto y compacto con otros, e incluso se pueden incrustar en páginas web..
En sitios web, mensajes de texto o correos electrónicos, los archivos de USDZ se pueden compartir y colocar instantáneamente en el mundo real para previsualizar y muestrear objetos en 3D con el toque del botón de "vista rápida" en iOS 12.
Estos archivos USDZ se pueden crear fácilmente usando software popular como Creative Cloud, Autodesk y Sketchfab de Adobe. Estas compañías introdujeron el uso de su software con este nuevo formato de archivo durante WWDC18.
Como puede ver, Apple ha realizado varias mejoras en el marco de ARKit, tanto bajo el capó como en las funciones de usuario final que los desarrolladores y los usuarios pueden disfrutar.
Manténgase atento a Envato Tuts + para obtener más información sobre estos temas. Mientras tanto, revise los enlaces de documentación para cada una de las funciones mencionadas en estos artículos y pruébelos usted mismo.!