Las nuevas funciones de iOS 15 de Apple serían perfectas para las gafas AR


wwdc-2021-apple-557-general-tim-cook.png

¿Cuánto tiempo llevará que esto se convierta en realidad? La introducción de Apple a la WWDC hizo un guiño a la telepresencia. Sin embargo, esto no es una broma.

Captura de pantalla / Apple

Otro año, otra ausencia de las gafas AR de Apple en la conferencia anual de la WWDC. En la segunda versión totalmente virtual de la compañía de la conferencia de desarrolladores, no hubo ni un vistazo a los tan esperados auriculares VR y AR de Apple. Tampoco hay grandes nuevos impulsos de AR. Es posible que se haya alejado de la conferencia magistral de la WWDC pensando que Apple no estaba poniendo demasiado énfasis en la realidad aumentada. Al menos, hasta ahora: 2021 aún no ha terminado.

De hecho, eche un vistazo más de cerca, y ya hay muchas piezas de rompecabezas esparcidas por todo el lugar. Las herramientas de desarrollo ARkit y RealityKit de Apple han agregado una funcionalidad más profunda para manejar más objetos y paisajes virtuales más grandes superpuestos sobre el mundo real. Las principales aplicaciones también han comenzado a recibir algunos ganchos de AR: Apple Maps está agregando direcciones de AR, como ya lo hace Google Maps. Además, al igual que Google Lens, Apple está introduciendo formas de leer y buscar texto en fotos o mediante la aplicación Cámara.

Audio espacial, uso compartido y FaceTime: ¿los inicios de la telepresencia?

Tim Cook subió al escenario virtual de la WWDC para dirigirse a una audiencia de Memoji, los avatares de realidad aumentada de Apple que han existido durante tres años. Tal vez se suponía que representaba el sentimiento de todos nosotros mirando desde casa. Seguí mirándolo y pensando en el futuro de la telepresencia.

Las mejores elecciones de los editores

Suscríbase a CNET Now para recibir las reseñas, noticias y videos más recientes del día.

Apple aún no tiene sus propias aplicaciones de comunicación social AR, pero otras sí. Spatial, una empresa que tiene sus propias aplicaciones de realidad virtual y realidad aumentada en auriculares y teléfonos, es un ejemplo. Muchos de ellos dependen del audio espacial para crear una sensación de presencia y atención directa. Facebook ve el audio espacial como la piedra angular de cómo las personas se comunicarán con las gafas de realidad aumentada.

Y en iOS 15, Apple agrega audio espacial a las llamadas FaceTime. Si no ha jugado aplicaciones sociales de realidad virtual o realidad aumentada, el audio espacial en FaceTime puede parecer abrumador. Todavía no lo he probado en iOS 15, pero tengo la sensación de que es mucho más importante de lo que parece. En grupos más grandes, podría ayudar a identificar quién está y dónde. En una cuadrícula de FaceTime, puede que no importe mucho. Pero en cualquier habitación con hologramas FaceTime colgando de un hilo, dado que Microsoft ya está jugando en Mesh on Hololens, puede ser realmente crucial. El audio espacial se está integrando más en las capacidades ARKit de Apple y me pregunto qué vendrá después.

Las herramientas para compartir agregadas en FaceTime, además de parecer un retraso en la búsqueda de Zoom, parecen muy importantes. Si Apple está desarrollando un sistema operativo para gafas que permitirá a las personas compartir mundos juntos, entonces Apple deberá comprender cómo las personas pueden conectarse y mostrar aplicaciones, contenido y más al instante. La evolución de sus herramientas FaceTime parece ser el primer paso.

wwdc-2021-apple-112-ios-15-live-text.png

Live Text de Apple escanea con la cámara de su iPhone, como Google Lens. Pero esta es una herramienta que las gafas AR podrían aprovechar.

Captura de pantalla / Apple

Texto y mapas en tiempo real: RA como herramienta útil

Detente si has escuchado esto antes: la realidad aumentada se puede usar para ayudar a las personas. Google se ha centrado en la RA durante varios años, y tanto Google Maps como Google Lens utilizan la RA de diferentes formas para mostrar direcciones emergentes o analizar texto y objetos en el mundo real para superponer información sobre ellos.

Este ha sido el objetivo soñado para las gafas AR desde Google Glass hace ocho años. La introducción de Apple de este tipo de funciones en iOS 15 indica que está lista para tratar la realidad aumentada como algo más que una experiencia mágica o una forma de comprar cosas. Ya hay muchas aplicaciones útiles habilitadas para AR en la App Store, pero el sistema operativo de Apple no las ha integrado mucho. Tanto Maps como Live Text parecen ser el comienzo de esa integración.

Adquisición de objetos de Apple sobre una piña. Una de mis cosas favoritas para probar la fotogrametría. Esto se procesó utilizando la configuración de detalles RAW.

Leer más en el hilo 👇 pic.twitter.com/2mICzbV8yY

– Mikko Haapoja (@MikkoH) 8 de junio de 2021

Captura de objetos: una vista previa de cómo Apple evolucionará el escaneo 3D?

Una herramienta profesional anunciada en WWDC permite a los desarrolladores crear archivos 3D de alta resolución a partir de objetos del mundo real. El iPhone y el iPad ya pueden realizar escaneos 3D sorprendentemente capaces a través de aplicaciones y funciones de hardware como lidar, pero la calidad de los escaneos puede ser poco confiable. Apple nunca antes había creado su propio software de captura 3D, pero Object Capture es un comienzo.

A diferencia de muchas herramientas de escaneo 3D existentes, que asignan datos de adquisición de imágenes a mapas de profundidad 3D, Object Capture transforma una serie de fotografías (capturadas a través de iPhone o iPad o de otro modo) en archivos 3D de alta resolución. La parte de procesamiento se lleva a cabo en una Mac, lo que parece una desconexión al principio. El hardware iOS de Apple, especialmente el iPad M1 Pro, parece tener mucha potencia de procesamiento para tareas como estas.

Apple utiliza la Mac como una herramienta de procesamiento 3D, pero también podría ser un trampolín para explorar cómo Apple se acercará a la adquisición de objetos 3D en iPhones y iPads futuros y más potentes.

La herramienta Object Capture se está utilizando en este momento con un propósito extremadamente práctico: configurar el comercio electrónico habilitado para AR el próximo año. Las experiencias de compras virtuales ya están demostrando ser efectivas durante la pandemia y parece que Apple está planeando Object Capture para fortalecer las bibliotecas de objetos 3D para empresas como Etsy, que está planeando una expansión de su inventario de compras 3D este otoño, y Wayfair., Que está construyendo el suyo aplicación de escaneo utilizando el kit de herramientas de Apple para los fabricantes que venden a través de su tienda.

Pero en algún momento, la captura 3D también será para la gente común: no solo para compartir cosas, sino para construir objetos y mundos que puedan vivir en AR. Es posible que Apple aún no esté listo para colocar todas esas piezas en su hardware, pero Object Capture lleva las Mac al desarrollo de AR.

aplicación de clip de código

Los códigos de clip de la aplicación de Apple, anunciados el año pasado, son parte de la capa continua de Apple de AR del mundo real sobre cosas reales.

Captura de pantalla de Jason Cipriani / CNET

La capa AR del mundo real de Apple está evolucionando lentamente

Para tener gafas de realidad aumentada que funcionen en el mundo real, necesita un mapa del mundo real para la realidad aumentada. En los últimos años, Apple ha rediseñado gradualmente su mapa mundial, utilizando automóviles equipados con lidar. Varias ciudades se están volviendo capaces de AR del mundo real que se pueden etiquetar en ubicaciones físicas. Para Apple, todas estas ciudades tienen su sede en los EE. UU. Por ahora, y Londres será la primera fuera de los EE. UU. En el otoño. Las últimas herramientas ARKit de Apple necesitan esa capa de datos AR basada en la ubicación para mostrar el arte virtual para experiencias de varias personas o para cosas como direcciones basadas en AR que aparecen en la próxima versión de Maps.

Apple también aspira a etiquetar objetos reales con etiquetas de Apple similares a códigos QR llamadas App Clip Codes que, cuando se escanean, mostrarán efectos AR que se pueden asignar al objeto escaneado o cosas cercanas. Las etiquetas pueden lanzar la mini aplicación App Clips de Apple, anunciada el año pasado con iOS 14, pero en formatos compatibles con AR. Apple comenzó a trabajar en esta idea el año pasado, pero parece que el progreso en los objetos etiquetados en el mundo real ha sido lento. Tal vez veamos que los productos (los de Apple tendrían sentido o los accesorios de HomeKit) comenzarán a recibir estos códigos de clips de aplicaciones.

Muchas otras empresas también están buscando AR para múltiples personas en el mundo real: Snapchat, Niantic, Google, Microsoft y Facebook, para empezar. La comparación de los avances de Apple con la competencia podría determinar qué tan rápido Apple lanza un par de anteojos AR avanzados diseñados para usarse todo el tiempo. Hasta entonces, los próximos auriculares híbridos VR / AR de Apple podrían cerrar la brecha para los desarrolladores al depender menos de ubicaciones externas del mundo real.

¿Hay unos auriculares profesionales en camino?

Apple puede tener su propio hardware AR / VR el próximo año. Pero hay muchas probabilidades de que la compañía tenga que comenzar a discutir el nuevo software y su sistema operativo significativamente diferente mucho antes, tal vez un año antes, según las estimaciones de cómo Apple anunció las nuevas plataformas anteriores. Estas nuevas herramientas de RA están ayudando a crear nuevas dimensiones de uso compartido, captura y servicio que podrían llevar justo donde los auriculares de Apple, que enfatizan la comunicación, la colaboración y mostrar cosas virtuales en el mundo real, podrían avanzar.

La llegada tardía de Apple a la escena de los auriculares AR / VR no sería nada nuevo. De hecho, Apple tiende a hacer apariciones tardías a las nuevas tecnologías (el Apple Watch, por ejemplo, o el iPhone o AirPods). Si bien muchas empresas como Facebook, Snapchat y Microsoft están compartiendo sus ideas emergentes en estados más experimentales, Apple puede estar ansioso por hacer su primer esfuerzo con los auriculares de manera más completa. O siga haciendo lo que ya está haciendo: evolucionar el software de RA de forma abierta, función por función.





Fuente

Deja un comentario