Lidar es uno de los trucos más geniales del iPhone y el iPad y solo está mejorando


01-iphone-12-pro-2020

El sensor lidar del iPhone 12 Pro, el círculo negro en la parte inferior derecha de la unidad de la cámara, abre las posibilidades de AR y mucho más.

Patrick Holland / CNET

Apple se está volviendo optimista con lidar, una nueva tecnología para la familia iPhone 12, específicamente el iPhone 12 Pro y el iPhone 12 Pro Max. Se rumorea que Lidar también aparece en los cuatro modelos de la línea iPhone 13 de Apple. Mire de cerca uno de los nuevos modelos de iPhone 12 Pro, o el iPad Pro más nuevo, y verá un pequeño punto negro cerca de la lente de la cámara, del mismo tamaño que el flash. Este es el sensor lidar y es un nuevo tipo de detección de profundidad que podría marcar la diferencia de muchas maneras interesantes.

Más información: la tecnología lidar del iPhone 12 no solo mejora las fotos. Mira este genial truco de fiesta

Si Apple se sale con la suya, lidar es un término que comenzará a escuchar mucho ahora, así que analicemos lo que sabemos, para qué lo usará Apple y dónde podría ir la tecnología a continuación. Y si tiene curiosidad sobre lo que hace en este momento, también he pasado algo de tiempo con la tecnología.

¿Qué significa lidar?

Lidar significa detección y medición de luz y existe desde hace bastante tiempo. Utiliza láseres para hacer ping a los objetos y regresar a la fuente láser, midiendo la distancia cronometrando el viaje o vuelo del pulso de luz.

Probando algunas de las aplicaciones AR habilitadas para LiDAR que puedo encontrar para el iPad Pro 2020, para mostrar el mallado. Aquí hay uno llamado Primer, una de las primeras construcciones para probar el papel tapiz en las paredes. pic.twitter.com/SatibguyTm

– Scott Stein (@jetscott) 14 de abril de 2020

¿Cómo funciona el lidar para detectar la profundidad?

Lidar es un tipo de cámara de tiempo de vuelo. Algunos otros teléfonos inteligentes miden la profundidad con un solo pulso de luz, mientras que un teléfono inteligente con este tipo de tecnología lidar envía ondas de luz pulsada en un aerosol de puntos infrarrojos y puede medir cada uno con su propio sensor, creando un campo de puntos que mapean las distancias. y puede “combinar” las dimensiones de un espacio y los objetos que contiene. Los pulsos de luz son invisibles para el ojo humano, pero es posible que los vea con una cámara de visión nocturna.

¿No es como Face ID en iPhone?

Lo es, pero con un alcance más largo. La idea es la misma: la cámara TrueDepth habilitada para Face ID de Apple también dispara una serie de láseres infrarrojos, pero solo puede funcionar hasta unos pocos metros de distancia. Los sensores lidar traseros del iPad Pro y el iPhone 12 Pro funcionan a una distancia de hasta 5 metros.

Lidar ya está en muchas otras tecnologías

Lidar es una tecnología que está apareciendo en todas partes. Se utiliza para vehículos autónomos o conducción asistida. Se utiliza para robótica y drones. Los cascos de realidad aumentada como HoloLens 2 tienen una tecnología similar, mapeando los espacios de las habitaciones antes de superponer objetos virtuales en 3D sobre ellos. Pero también tiene una historia bastante larga.

El antiguo accesorio de detección de profundidad de Xbox de Microsoft, el Kinect, era una cámara que también tenía escaneo de profundidad por infrarrojos. De hecho, PrimeSense, la compañía que ayudó a construir la tecnología Kinect, fue adquirida por Apple en 2013. Ahora tenemos los sensores TrueDepth de Apple para el escaneo facial y la cámara lidar trasera.

Manténgase actualizado sobre las últimas noticias, reseñas y consejos sobre iPhone, iPad, Mac, servicios y software.

La cámara del iPhone 12 Pro funciona mejor con lidar

Las cámaras de tiempo de vuelo en los teléfonos inteligentes tienden a usarse para mejorar la precisión y la velocidad del enfoque, y el iPhone 12 Pro hace lo mismo. Apple promete un mejor enfoque con poca luz, hasta seis veces más rápido con poca luz. La detección de profundidad Lidar también se utiliza para mejorar los efectos del modo de retrato nocturno. Ha tenido un impacto hasta ahora: lea nuestra revisión del iPhone 12 Pro Max para obtener más información.

Un mejor enfoque es una ventaja y también existe la posibilidad de que el iPhone 12 Pro pueda agregar más datos de fotos en 3D a las imágenes. Si bien ese elemento aún no se ha delineado, la cámara de detección de profundidad frontal TrueDepth de Apple se ha utilizado de manera similar con aplicaciones y los desarrolladores externos podrían sumergirse y desarrollar algunas ideas locas. Ya está sucediendo.

Además, mejora enormemente la realidad aumentada

Lidar permite que el iPhone 12 Pro inicie aplicaciones de realidad aumentada mucho más rápido y cree un mapa rápido de una habitación para agregar más detalles. Muchas actualizaciones de Apple AR en iOS 14 están aprovechando lidar para ocultar objetos virtuales detrás de los reales (llamado oclusión) y colocar objetos virtuales dentro de mapeos de habitaciones más complicados, como en una mesa o silla.

Lo probé en un juego de Apple Arcade, Hot Lava, que ya usa lidar para escanear una habitación y todos sus obstáculos. Pude colocar objetos virtuales en las escaleras y esconder cosas detrás de objetos de la vida real en la habitación. Espere muchas más aplicaciones de AR que comenzarán a agregar soporte lidar como este para experiencias más ricas.

lente-snapchat-con-lidar.png

La próxima ola de lentes de Snapchat comenzará a adoptar la detección de profundidad utilizando el lidar del iPhone 12 Pro.

Snapchat

Pero hay más potencial más allá de eso, con una cola más larga. Muchas empresas sueñan con auriculares que combinen objetos virtuales y reales: las gafas AR, en las que Facebook, Qualcomm, Snapchat, Microsoft, Magic Leap y probablemente Apple y otros trabajan, dependerán de tener mapas 3D avanzados del mundo para superponer objetos virtuales.

Esos mapas en 3D ahora se están construyendo con escáneres y equipos especiales, casi como la versión de escaneo mundial de esos autos de Google Maps. Pero existe la posibilidad de que los dispositivos de las personas puedan eventualmente ayudar a reunir esa información o agregar datos adicionales sobre la marcha. Una vez más, los auriculares AR como Magic Leap y HoloLens ya escanean previamente el entorno antes de apilar cosas en él, y la tecnología AR de Apple equipada con lidar funciona de la misma manera. En ese sentido, el iPhone 12 Pro y el iPad Pro son como auriculares AR sin la parte del auricular … y podrían allanar el camino para que Apple eventualmente fabrique sus propias gafas.

occipital-tela-ipad-pro-lidar.png

Un escaneo 3D de la habitación de la aplicación Canvas de Occipital, habilitado por el sensor de profundidad lidar en el iPad Pro. Espere lo mismo para el iPhone 12 Pro, y tal vez más.

Occipital

El escaneo 3D podría ser la aplicación asesina

Lidar se puede utilizar para mallar habitaciones y objetos 3D y superponer imágenes fotográficas, una técnica llamada fotogrametría. Esta podría ser la próxima ola de tecnología de adquisición para usos prácticos como mejoras para el hogar o incluso redes sociales. periodismo. La capacidad de capturar datos en 3D y compartir esa información con otros podría hacer que estos teléfonos y tabletas equipados con lidar sean herramientas para capturar contenido en 3D. Lidar también podría usarse sin el elemento de la cámara para adquirir medidas para objetos y espacios.

Ya probé algunas de las primeras aplicaciones de escaneo 3D habilitadas para Lidar en el iPhone 12 Pro con éxito mixto (Aplicación 3D Scanner, Lidar Scanner y Record3D), pero se pueden usar para escanear objetos o mapear habitaciones con una velocidad asombrosa. El alcance efectivo de 16 pies del escaneo LIDAR es suficiente para llegar a la mayoría de las habitaciones de mi hogar, pero los espacios al aire libre más grandes requieren más movimiento. Una vez más, la cámara TrueDepth frontal de Apple ya hace cosas similares a corta distancia.

Reproduciendo ahora: mira esto: nuestra revisión en profundidad del iPhone 12 y 12 Pro

13:48

Apple no es el primero en explorar tecnologías como esta en un teléfono

Google tenía esta misma idea en mente cuando se creó Project Tango, una de las primeras plataformas de RA que solo estaba disponible en dos teléfonos. La gama avanzada de cámaras también tenía sensores infrarrojos y podía mapear habitaciones, creando escaneos 3D y mapas de profundidad para AR y para medir espacios interiores. Los teléfonos equipados con Tango de Google duraron poco y fueron reemplazados por algoritmos de visión por computadora que realizaban una detección de profundidad estimada en las cámaras sin la necesidad del mismo hardware. Pero el iPhone 12 Pro de Apple parece un sucesor significativamente más avanzado, con posibilidades de que ese lidar se extienda a automóviles, auriculares AR y más.

Manténgase actualizado sobre las últimas noticias, reseñas y consejos sobre iPhone, iPad, Mac, servicios y software.





Fuente

Deja un comentario