viernes, 23 de febrero de 2024

¿Se mojó tu iPhone? No lo metas en una bolsa de arroz

Olvídate del viejo truco. Apple advierte que introducir un iPhone mojado en una bolsa de arroz podría causar daños en tu dispositivo.



Uno de los remedios más usados cuando se moja el iPhone es meterlo en una bolsa de arroz. La medida es tan vieja que se aplica desde hace casi dos décadas en cualquier gadget. No obstante, la promesa de que el arroz absorberá el líquido después de un día podría ser contraproducente para tu dispositivo, según Apple.

En un nuevo documento de soporte, Apple advirtió a sus usuarios que no introduzcan un iPhone mojado en una bolsa de arroz. La tecnológica menciona que al hacerlo, las pequeñas partículas podrían dañar tu dispositivo. Desde Cupertino consideran que existen mejores métodos para solucionar el problema en la actualidad, por lo que deberíamos olvidarnos del viejo truco.

Desde el iPhone XS, Apple introdujo una alerta de detección de líquido, la cual se activa cuando los sensores registran la presencia de líquido en el conector Lightning o USB-C, así como en el cable o accesorio. Cuando esto ocurre, el sistema desactiva la carga para evitar accidentes y la reanuda hasta que el iPhone se seca.

Apple advierte que si cargas el iPhone cuando el conector está húmedo, las clavijas del conector o el cable pueden corroerse y causar daños permanentes. Sin embargo, existen situaciones de emergencia en las que necesitas realizar una llamada, por lo que podrás anular la alerta de detección de líquido y reanudar la carga o hacerlo por medio de un cargador inalámbrico.

Aunque el iPhone es resistente a salpicaduras, al agua y el polvo, no debes cargarlo mientras está mojado. Esto aplica para cualquier dispositivo, ya que al conectarlo, la electricidad podría freír la placa base y arruinar tu gadget. Recuerda que la garantía del iPhone no cubre daños producidos por líquidos.


Por qué no debes meter un iPhone mojado en una bolsa de arroz



Apple advierte que introducir un iPhone en una bolsa de arroz permitiría que las partículas pequeñas dañen el dispositivo. De acuerdo con Craig Beinecke, cofundador de TekDry, una empresa que se dedica a "secar" tu móvil, usar arroz puede introducir polvo y almidón en el teléfono.

"Hicimos un estudio y el arroz funcionó más lentamente que simplemente dejar el teléfono en el mostrador. Y ninguno de los dos funcionó lo suficientemente rápido. Después de aproximadamente 48 horas en arroz, solo el 13 % del agua salió del teléfono", declaró en una entrevista con USA Today.

Otra cosa que no debes hacer es insertar objetos extraños en el conector, como un bastoncillo de algodón, una toalla de papel, o cualquier cosa que consideres que puede secarlo. Olvídate de usar una secadora de cabello, aire comprimido o ponerlo bajo el rayo del sol, ya que dañarás el móvil.

La solución que ofrecen desde Cupertino es golpear suavemente el iPhone contra tu mano con el conector hacia abajo para eliminar el exceso de líquido y dejarlo en un área seca. Espera 30 minutos y conecta el cable de corriente para cargarlo. Si la alerta vuelve a aparecer, deja tu móvil en un área con flujo de aire por 24 horas para que se seque por completo.

Si ha pasado tiempo y sigues viendo la alerta, es posible que el conector o el cable esté dañado, por lo que deberás hablar a soporte.

La buena noticia es que el iPhone ha recibido mejoras constantes desde que recibió la certificación IP68 con el iPhone XS. Esto permite sumergir el móvil a cierta profundidad hasta por 30 minutos, lo que disminuye los daños causados por chapuzones o derrames accidentales. Los tiempos de la bolsa de arroz podrían haber quedado en el pasado, aunque la costumbre será difícil de eliminar en los usuarios más añejos.


Fuente: Hipertextual

Fujifilm presenta la X100VI, sucesora de la cámara más viral de TikTok


Fujifilm presentó su cámara X100VI, sucesora de una de las cámaras más populares de los últimos años gracias a TikTok. El fabricante japonés ha integrado mejoras, como un nuevo sensor de 40 MP, estabilización de imagen integrada y un mejor procesador. La X100VI llega tras cuatro años de reinado de la X100V y lo hará a un precio ligeramente superior que su predecesora.

La X100VI es el nuevo integrante de la gama X100, una serie de cámaras compactas que se distinguen por contar con un visor híbrido. Esta tecnología permite cambiar entre sistemas ópticos y electrónicos, por lo que el usuario puede elegir entre un visor óptico con corrección de paralaje, o un visor electrónico OLED. Otra característica de esta gama es su objetivo fijo, una prestación que si bien no suena atractiva en papel, se ha convertido en la razón por la que la compran muchos fotógrafos.

En términos de especificaciones, la X100VI incluye un sensor retroiluminado CMOS X-Trans de 40,2 megapíxeles, idéntico al que encontramos en la X-T5 y la X-H2. Esto garantiza una cantidad impresionante de detalles y un desempeño notable en ISO muy altos. De acuerdo con Fujifilm, el sensor puede capturar luz de manera eficiente gracias a una estructura de píxeles mejorada.


Otra novedad es el procesador X-Processor 5, también heredado de la X-T5, que duplica la velocidad de procesamiento de imágenes con respecto a su la X100V. El chip incluye tecnología de inteligencia artificial, que se aprovecha en el modo AF con detección de sujeto. Según Fuji, esta función no solo puede identificar diversos objetos, sino también capturarlos si se mueven rápidamente gracias a un algoritmo de predicción.


La estabilización de imagen es el plato fuerte de la X100VI


Una de las prestaciones más notables de la X100VI es el estabilizador de imagen de 5 ejes con un máximo de 6,0 pasos. Esta característica facilitará la captura en condiciones de baja iluminación sin necesidad de un trípode. La estabilización es un componente importante para la grabación de videos, una de las principales flaquezas de la X100V.




La X100VI puede grabar películas 6.2 K a 30p. Debido a que cuenta con el mismo procesador que la X-T5, también se ofrece grabación de 10 bits y 4K de hasta 30p desde el máximo del sensor, o a 60p con un recorte de 1,14x. También se proporciona una función de seguimiento AF para rastrear en video.

La nueva cámara incluye el mismo lente de F2.0 de 23 mm que encontramos en la X100V, aunque esto no es del todo malo, ya que podremos sacarle provecho con el nuevo sensor. Fuji promete imágenes nítidas y de alta resolución al utilizar al máximo los 40,2 megapíxeles.


Fujifilm X100VI: precio y disponibilidad



La Fujifilm X100VI estará disponible a comienzos de marzo a un precio sugerido de 1.599 dólares. El fabricante venderá una edición limitada de 1.999 dólares para celebrar el 90.º aniversario de la compañía, la cual contará con el logotipo corporativo de 1934 grabado en el cuerpo de la cámara. Esta edición se ofrecerá en una caja especial que incluye una correa de edición limitada y estará limitada a 1.934 piezas en todo el mundo.

Será importante ver el desempeño una vez que aterrice en el mercado. La fiebre provocada por TikTok ocasionó que la X100V se agotara de inmediato y en la reventa alcanza precios de 2.000 dólares en eBay.


Fuente: Hipertextual

Adobe lanza su asistente para "hablar con PDFs" gracias a la IA: ya lo puedes probar


Las tecnologías basadas en inteligencia artificial generativa cobraron un nuevo nivel cuando ChatGPT llegó a todo el público. OpenAI puso patas arriba a la industria tecnológica, y hoy día, es muy común que en tu aplicación favorita hayan integrado una inteligencia artificial para realizar determinadas funciones de manera autónoma.

Una de las últimas en dar este paso ha sido Adobe, que tras meses de lanzar su IA para generar imágenes Adobe Firefly 2 y su asistente para Photoshop y otros productos similares, ahora la IA llega también a su aplicación para gestionar PDFs, Adobe Acrobat.


Adobe lanza una IA para conversar con documentos


La compañía ha anunciado recientemente la llegada de un asistente de IA generativa que planea “transformar completamente la experiencia de documentos digitales,” según apuntan desde la nota de prensa oficial. La herramienta se describe como un “motor conversacional” que puede resumir archivos, responder a preguntas y hacer recomendaciones basadas en el contenido.


La idea es que el usuario pueda “conversar con un documento PDF”, algo que ya nos permiten otros proyectos como los de PDF.ai. Así pues, los usuarios pueden acceder de forma mucho más fácil a la información de un documento, ideal sobre todo si texto es muy extenso.

Los usuarios de los planes de pago de Adobe Acrobat ya pueden acceder a esta herramienta que se encuentra en fase beta. De esta forma, todos aquellos que tengan acceso a la herramienta podrán reducir el tiempo en el que trabajan con documentos PDF muy extensos, como la posibilidad de que estudiantes puedan encontrar información relevante mucho más fácil para sus proyectos, o resumir la información en segundos para e-mails, videoconferencias o presentaciones.

La buena noticia es que el asistente funciona con todos los formatos de texto y documentos compatibles con Adobe Acrobat, incluyendo Word y PowerPoint. Además, según la compañía, el chatbot dispone de diversos protocolos de seguridad para no guardar la información del cliente o usarla para entrenar a su IA.

Como decíamos, esta nueva función se encuentra en fase beta, por lo que tras su lanzamiento podemos evaluar el contenido de un documento, recomendar preguntas a los usuarios sobre el documento o contestar a las que nosotros tengamos. También es posible generar citas para que el usuario pueda verificar la fuente de las respuestas generadas por la IA y crear enlaces a dichas fuentes que se dirijan a partes concretas del documento. También es posible hacer resúmenes para condensar el texto y usarlo para otras tareas.




El asistente se encuentra disponible en beta para miembros del plan estándar (15,72 euros al mes), Acrobat Pro (24,19 euros al mes) y también para la suscripción de equipos de trabajo en las versiones de escritorio y web. Esta herramienta se ofrecerá a los usuarios sin coste adicional mientras el producto se encuentra en beta, y ya hay planes para tener acceso a opciones adicionales de este asistente que llegarán en un futuro bajo una suscripción adicional.

Desde Adobe no han especificado cuándo dejará de estar en beta su asistente, pero la compañía sí tiene una hoja de ruta con todas sus futuras capacidades. Entre ellas podemos esperar la integración con Firefly, la habilidad de obtener información desde múltiples documentos, compatibilidad con más formatos y fuentes, e incluso opciones para generar primeros borradores y editar textos.


Fuente: Genbeta

Qué es Sora, cómo funciona, y qué se puede hacer con la inteligencia artificial para generar vídeos de OpenAI

Vamos a explicarte qué es y qué puede hacer Sora, el nuevo sistema de inteligencia artificial creado por OpenAI. Se trata de una nueva revolución de inteligencia artificial que viene de la mano de los creadores de ChatGPT y DALL-E, que vuelven a innovar en el sector.

Así como ChatGPT genera texto y DALL-E genera imágenes a partir de texto, lo que hace Sora es generar vídeos a partir de nuestros comandos textuales. De momento, este modelo no es accesible para todos, solo para investigadores de la empresa, pero promete ser la próxima gran revolución.


Qué es Sora y cómo funciona



Sora es un sistema de inteligencia artificial creado por OpenAI, la misma empresa que ha creado otros sistemas conocidos como ChatGPT o DALL-E. En este caso, es una IA que genera vídeos a partir de texto, de forma que tú le escribes lo que quieres ver mediante un prompt o comando textual, y la generará de la nada.

Esta inteligencia artificial es muy similar a los modelos que crean imágenes a partir de texto, y que a la vez se basa en parte de la tecnología de modelos de lenguaje como GPT. Este sistema es capaz de entender lo que le pides con un lenguaje natural, ya que ha sido entrenada para entender la manera en las que solemos hablar y cómo nos expresamos para pedir o preguntar algo.

Después de entender lo que le has pedido en un prompt, Sora podrá generar vídeos en los que se vea en movimiento lo que le has pedido, lo que supone un enorme paso más con respecto a simplemente crear imágenes.

Esto lo ha conseguido porque es un modelo entrenado con una enorme biblioteca de vídeos, de forma que sabe reconocer movimientos, descripciones y cualquier cosa que le pidas, y será capaz de recrearlos en vídeo. Sabrá a lo que te refieres cuando le hables de tipos de personas, de vestimenta, de accesorios o de efectos visuales.


Qué puedes hacer con Sora



Sora es capaz de generar escenas complejas en las que aparezcan varios personajes, y también puedes especificar el tipo de movimiento que quieras que realice. También puedes detallar el entorno, y Sora sabrá interpretar lo que le dices y cómo son las cosas en el mundo físico.

Mira por ejemplo el vídeo que te vamos a enseñar a continuación. En él, se ha utilizado un prompt en el que se le ha dicho que cree a una mujer elegante caminando por una calle de Tokyo llena de neones, y con señalizaciones urbanas. En el prompt que se utilizó, también se describió la vestimenta al detalle, así como sus gafas de sol o pintalabios.

Por lo tanto, es capaz de generar con precisión a la persona y de reflejar cómo le has pedido que esté vestida. Además, también refleja otros detalles que se le han pedido como que la calle esté húmeda y haya reflejos con efecto espejo. A continuación te dejamos el vídeo, y debajo de él la traducción del prompt utilizado.


"Una mujer elegante camina por una calle de Tokio llena de cálidos neones brillantes y animada señalización urbana. Lleva una chaqueta de cuero negra, un vestido largo rojo, botas negras y un bolso negro. Lleva gafas de sol y pintalabios rojo. Camina con seguridad y despreocupación. La calle está húmeda y es reflectante, lo que crea un efecto espejo de las luces de colores. Muchos peatones pasean".

Esto te puede servir como un ejemplo para que veas las calidades y la fiabilidad a la hora de reflejar lo que le has pedido. También entiende contextos, y al ser en Tokyo ha hecho que la mujer tenga rasgos orientales. Además de todo esto, Sora también te permite especificar rasgos como su edad o su vestimenta, o algunos otros atributos físicos y los movimientos que está realizando.

Como suele ser habitual, las capacidades de Sora también dependerán de la habilidad de cada uno para crear prompts complejos en los que hacer las mejores descripciones con las que obtener resultados a medida. Cuanto más detallada sea la descripción del prompt, más detallada será la imagen que se muestre con respecto a lo que quieras obtener.

De momento, este modelo de inteligencia artificial está en una fase temprana de su desarrollo, y genera vídeos de hasta 60 segundos. Además, la empresa advierte que puede tener algunos problemas a la hora de recrear con exactitud algunas físicas.


Cuándo llegará Sora


Como hemos dicho, de momento este modelo está en una fase de prueba, y solo pueden acceder investigadores de OpenAI. Por lo tanto, está todavía limitada a pruebas de laboratorio, con las que se está probando su funcionamiento.

Aquí, OpenAI asegura que Sora se acabará incorporando al catálogo de productos de la empresa, pero todavía no ha dado ninguna fecha concreta para ello. De momento, dicen que primero deben tomar medidas para garantizar la seguridad de los usuarios.


Fuente: Xataka

viernes, 9 de febrero de 2024

NFL: CONOCE LA TECNOLOGÍA DEL ALLEGIANT STADIUM SEDE DEL SUPER BOWL LVIII

Las Vegas recibirá por primera vez en su historia el Super Bowl

NFL | EL ALLEGIANT STADIUM SERÁ TESTIGO DEL DUELO ENTRE LOS KANSAS CITY CHIEFS VS SAN FRANCISCO 49ERS

Las Vegas recibirá el domingo 11 de febrero la final de la temporada 2023 de la NFL con el Súper Bowl LVIII, en el cual se enfrentarán las franquicias de los Kansas City Chiefs y los San Francisco 49ers, por conseguir la gloria del futbol americano.

El partido final del “Súper Domingo” se celebrará en la cancha del Allegiant Stadium, el más reciente recinto de la NLF en la ciudad del pecado y que funge como hogar de Las Vegas Raiders.


Muchos comparan coloquialmente como el caso de Darth Vader o una nave especial, al punto que le han otorgado el apodo de “La estrella de la Muerte”. Debido a que el estadio no solo posee un diseño de tipo futurista, que es tan amado como odiado, además de ser el estadio con la mayor tecnología del mundo.

Su inauguración se remonta a julio 2020 después de 40 meses de construcción, lo cual se demoró debido a la crisis sanitaria derivada del COVID-19. La construcción tuvo un costo de 1,800 millones de dólares, por lo que es el segundo estadio más caro del mundo, solamente detrás del SoFi Stadium, ubicado en la ciudad de Los Ángeles, que alcanzo un costo de 5,000 millones de dólares.



El estadio cuenta con la capacidad para 65,000 espectadores que además para conciertos puede adecuarse para recibir hasta 72,000.

Uno de sus puntos atractivos es que posee tecnología que permite tener dos tipos de campo, uno con césped artificial y otro con natural. Cada campo es retráctil y están montados uno encima de otro. Para esto se utiliza un mecanismo de desplazamiento que emplea 72 motores que permite no dañar el césped.

La instalación posee 10 niveles,127 suites VIP, restaurantes y locales, además de contar con un estacionamiento para 8,000 vehículos y hasta 80 torres de carga Smartphone.


Además, uno de los principales atractivos tecnológicos son las pantallas patrocinadas por la empresa coreana Samsung, que se encuentran tanto dentro como fuera del recinto. Una pantalla de malla LED exterior de 8,412 metros cuadrados, la pantalla exterior más grande del mundo para un estadio de fútbol profesional.

Una pantalla LED para el marcador principal de 3,734 metros cuadrados, situado en la zona sur del estadio.

Dos pantallas de video de 1,822 metros cuadrados, situadas en la zona norte.
41 pantallas de vídeo en todo el recinto.

Y 2,553 pantallas, de tamaños comprendidos entre 27 y 98 pulgadas, esparcidas por todo el estadio, que se dedican a transmitir los partidos y repeticiones en tiempo real.

Fuente: Sportsmedia

WhatsApp detalla cómo se conectará con Telegram y otras apps de mensajería

A pocas semanas de la entrada en vigor de la Ley de Mercados Digitales, WhatsApp mencionó su plan para hacer interoperable su aplicación.



La Ley de Mercados Digitales ha provocado cambios importantes en los servicios que ofrecen las grandes tecnológicas en Europa. Uno de ellos es WhatsApp, el servicio de mensajería de Meta que está a punto de volverse interoperable con otras aplicaciones. Aunque la legislación no ha entrado en vigor, WhatsApp explicó cómo será posible chatear con usuarios de otras apps de mensajería.

Dick Brouwer, director de ingeniería de WhatsApp, detalló en una entrevista con Wired los pasos a seguir para hacer interoperable a la aplicación. Brouwer señaló que esta función será opcional y requerirá que los usuarios acepten su participación para poder activarla. Una vez hecho, los mensajes de otras aplicaciones llegarán a una bandeja de entrada separada conocida como “chats de terceros”.

Esta característica apareció en la beta de WhatsApp de septiembre de 2023, aunque todavía no estaba activa, ya que entrará en funciones a partir de marzo de 2024. Los chats de terceros será el lugar donde recibirás mensajes de Telegram, Signal, Google y otras aplicaciones que así lo deseen.


El jefe de ingeniería declaró que las empresas deberán firmar un acuerdo en el que se comprometen a cifrar los mensajes con el protocolo de Signal. En caso de que las apps utilicen otros métodos de cifrado, deberán demostrar que su tecnología es tan segura como la que utiliza Meta.
La interoperabilidad de WhatsApp, ¿una pesadilla de seguridad?

Uno de los problemas principales de la puesta en marcha de la interoperabilidad es la seguridad. Brouwer afirma que Meta prefiere el protocolo de cifrado de Signal y por ello ha trabajado para documentarlo. “El enfoque que estamos tratando de adoptar es que WhatsApp documente nuestro protocolo cliente-servidor y permita que clientes de terceros se conecten directamente a nuestra infraestructura e intercambien mensajes con los clientes de WhatsApp”.

Algunos expertos consideran que si bien la Ley de Mercados Digitales favorece la competencia, la privacidad de los usuarios está en peligro. Steve Bellovin, criptógrafo veterano y antiguo jefe de tecnología de la Comisión Federal de Comercio (FTC) declaró que el cifrado de extremo a extremo interoperable es algo extraordinariamente difícil o imposible. Por su parte, Nadim Kobeissi, autor de Cryptocat, señaló que las técnicas criptográficas necesarias para cumplir la ley podrían sufrir una grave degradación.


Comprobación de cifrado en WhatsApp.

Will Cathcart, director ejecutivo de WhatsApp, afirmó en 2022 que le preocupaba que la Ley de Mercados Digitales rompiera gran parte del trabajo de seguridad que habían realizado. El jefe de WhatsApp cuestionó si la Comisión había consultado a expertos sobre las implicaciones de la ley. “Las reacciones de un grupo de expertos en seguridad que he visto sugieren que esos expertos, al menos, no fueron consultados”.

Dos años después, WhatsApp considera que llegó a un punto intermedio entre la interoperabilidad y la barrera de privacidad y seguridad de la aplicación. La empresa continuará trabajando para cumplir con los requisitos antes de la entrada en vigor de la ley, aunque se desconoce si Telegram, Signal u otras aplicaciones están interesadas en seguir los lineamientos de WhatsApp para interactuar con ella.

Fuente: Hipertextual

Win + Ctrl + V: Microsoft ha activado este nuevo atajo imprescindible para Windows y esta es su función

Un atajo de teclado exclusivo de Windows 11 según una ingeniera de Microsoft



Para sacar partido a Windows es importante conocer todos los atajos de teclado que se pueden encontrar para hacer mucho más fácil el trabajo del día a día. Se pueden destacar las funciones de la tecla Windows o los atajos más importantes para PC que quizá no conozcas. Pero también hay atajos que se van agregando con el paso del tiempo y que tratan de dar respuesta a una necesidad de los usuarios.

Desde la última actualización de Windows 11, se ha habilitado el atajo de teclado Windows + Control + V tal y como reveló en su cuenta de X Jen Gentleman, que es una ingeniera que trabaja de manera activa en el desarrollo de Windows.

Un atajo de teclado para acceder al mezclador de sonido de Windows 11


En el caso de que quieras acceder a las opciones de sonido para cambiar la fuente de salida o de entrada, hay un modo más rápido que pulsar en el icono del altavoz en la barra de tareas del sistema operativo y seleccionar el icono de las salidas de sonido.

Todo esto se puede resumir a un solo atajo de teclado que es Windows + Control + V donde se abrirá automáticamente la configuración rápida directamente en la sección de salida de sonido. Además, es más completo que siguiendo los pasos anteriores, pues agrega de manera predeterminada un mezclador de sonido para poder ajustar la salida de cada uno de los programas que se tengan abiertos.


En el caso de que tengas auriculares o altavoz compatibles con el audio espacial, también vas a poder activar o desactivar esta característica fácilmente. Por lo demás, vas a poder seleccionar el dispositivo de salida rápidamente, por ejemplo, si quieres que funcionen los auriculares o los altavoces, y todo de una manera rápida.

Hay que recordar que según esta ingeniera, esta es una característica que está disponible únicamente para los usuarios de Windows 11 y siempre que estén con la actualización 22H2. En el caso de Windows 10 no es compatible de momento al no contar con este tipo de menú y poder acceder más fácil al mezclador.

Fuente: Genbeta

Apple Vision Pro, primeras impresiones: tras probarlo 24 horas puedo decir que es lo más alucinante que ha hecho Apple en los últimos años

Sorprende la calidad de construcción, diseño y el cuidado por los detalles del dispositivo físico

El uso de la computación espacial "al estilo Apple" nos empuja hacia el futuro de la tecnología que pocos creían posible hoy



Ayer probé la computación espacial de Apple por primera vez en mi vida. Llevaba desde junio de 2023 esperando ese momento. Había leído todo lo que compañeros como Víctor Abarca, Ángel Jimenez o Francesc Bracero me contaron cuando las probaron en la WWDC23.

He escrito varios artículos del tema, he participado en decenas de episodios de podcasts sobre las posibilidades, el pasado, el presente y los cientos de futuros que se me ocurrían. Tenía una nota escrita en mi iCloud con casi cien cosas en las que fijarme.

Lo tenía todo planeado, llevo casi veinte años escribiendo sobre el mundo Apple. He vivido la llegada del iPod, el iPhone, el iPad y el Apple Watch.

Todo eso dio igual. La primera vez que me las puse, literalmente me quedé sin palabras.

Apple Vision Pro, impresiones en una nueva realidad



Entiendo muy bien a la gente que tiene ciertas reticencias con el producto. Durante años, diría décadas incluso, las compañías han puesto más empeño en los vídeos de marketing que en diseñar un producto robusto y estable. Durante años, el hype de los dispositivos se los comía.

Estamos tan acostumbrados a ver un video deslumbrante y luego decepcionarnos, que es normal pensar en la decepción cuando alguien intenta vendernos algo. Lo primero que pensé, e igual le pasó al equipo de Rossellimac a quienes estoy acompañando en esta aventura, es que por primera vez los materiales de marketing están muy por debajo de lo que realmente el producto puede hacer. Se quedan cortos.


Apple es una marca muy pasional, con gente muy pasional dentro y también entre sus usuarios. Ayer, Tim Cook decía en Twitter que había visto en la tienda gente con lágrimas en los ojos después de probarlas. No es una broma, yo estaba allí y también fui testigo. No estaban exagerando.

Probar el Apple Vision Pro por primera vez hace replantearte todo lo que esperas de la tecnología. Pero es que esas preguntas llegan de golpe, con la primera escena inmersiva. Puede ser un dinosaurio tratando de comerte o la mismísima Alicia Keys ofreciéndote un concierto a un metro de ti. Con un sonido que no podía creer sin llevar ningún AirPods o similar.


La naturalidad es una de las claves de todo. Creedme, me estoy conteniendo. Sinceramente estas primeras 24 horas me han dado tantas cosas de las que hablar que no sé donde voy a parar con mi review final. Estas son unas primeras impresiones y algunas de ellas ya las he comentado en redes sociales: Apple Vision Pro está tan lejos de todo lo demás, como lo estuvo el iPhone original. Creo que incluso más aún.

La clave es la naturalidad



(La captura no muestra la resolución ni calidad real del dispositivo). La navegación por visionOS es sorprendente.

Si algo ha sido clave en todo lo que ha hecho Apple en los últimos 30 años es una práctica de la naturalidad extrema. El ratón, lo cogías y lo movías. Un botón. El iPod con la click wheel, sólo tienes que deslizarte por ella con el dedo. La pantalla multitáctil del iPhone, el iPad. El Watch, póntelo y él se encarga de todo.

En la review completa explicaré todo al detalle, pero el proceso de configuración es de auténtica ciencia ficción. OpticID tarda segundos en configurarse y el ajuste de la experiencia consiste en la distancia focal entre las dos pantallas - que el dispositivo hace solo - y poco más. De repente, aparece un “hello” flotando delante de ti. Me pregunté que habría pensado Jobs de verlo tras usarlo en el primer Macintosh como palabra de referencia.


A partir de ahí, el seguimiento de la retina para mirar cosas y el pellizco para seleccionarlas da una sensación de que estamos delante de otra cosa - la evolución de todas las interfaces de usuario: en unos minutos ya es tan fácil usarlas y navegar por ellas a cómo lo hacemos con el iPhone. Sólo que mucho mejor. Parece auténtica magia como funciona.

Las pantallas muestran la realidad a través del visor a una buena resolución. Obviamente no tienen la misma nitidez que un cristal transparente, pero nos da la sensación de que llevamos gafas con un realismo impactante y sin ningún retardo importante. Podemos movernos sin ningún problema, incluso con baja luminosidad.


La corona digital superior es el control que gradúa la oclusión de la realidad, de forma que convertimos nuestro alrededor en una montaña. Para trabajar o para ver una película. La ventana o el objeto 3D que estemos viendo, reflejará la luz que emite sobre el escenario. Estos fondos inmersivos no son sólo una imagen estática en perspectiva tridimensional. Te puede mover por ellos y las nubes, o la niebla se mueven delante de ti.

En definitiva, navegar, usarlas y lanzar las aplicaciones es una absoluta gozada con Apple Vision Pro. Todo lo demás que uséis parecerá de otro siglo si lo comparamos con el trabajo de tener tu monitor del Mac ampliado flotando delante de ti. Que es exactamente, como os estoy escribiendo ahora, con muy buena definición. Ideal para trabajar desde un hotel, por ejemplo, con una gran superficie de trabajo.


Diseño que también deja sin palabras



En realidad, el Apple Vision Pro es muy pequeño. Sólo consiste en la parte del visor porque no hay más electrónica (además de los auriculares) en ninguna parte más. Las almohadillas frontales son más gruesas por comodidad, pero hay de varias medidas.

Es algo pesado - ahora se entiende por qué Apple ha sacado la batería fuera del dispositivo - y la Solo Knit Band (la correa con la que viene montada en la caja) puede ser algo incómoda - en mi opinión - para un uso continuado. Es por eso que Apple ha incorporado en la caja también la Dual Loop Band, que contiene una banda que apoya más el visor por la parte de arriba de la cabeza.


La Dual Loop Band es la correa más cómoda para el uso diario. Viene incluída en la caja de Apple Vision Pro.

No es tan bonita como la Solo Knit Band, pero es más usable en el día a día. Yo ahora mismo la llevo puesta durante más de cuatro horas y no siento ningún peso molesto en la cara. Si os fijáis en los análisis de los compañeros de prensa de Estados Unidos, todos acaban llevando también la Dual Loop Band. Es justo por comodidad, aunque la otra obviamente se puede usar sin problemas, porque es mucho más cómoda de poner o sacar.

La batería es algo más pequeña que un iPhone 15 Pro, y también más pesada. En el caso de la batería, no me ha importado. Se lleva en el bolsillo sin problemas y no molesta absolutamente nada. La gente se preguntaba por qué una batería con esta capacidad (que es la que suele llevar un móvil de gama alta) tiene una envergadura tan grande. Pues la respuesta es porque no se calienta apenas. Esencial si la llevamos en el bolsillo.

En el visor no he notado tampoco aumento de calor, ni de otra cosa que me temía que podía ocurrir: que la “pantalla” se empañara. Yo llevo lentillas (para miopía y presbicia, ambas) y por mucho que apriete la correa en estas 24 horas jamás se ha ensuciado o empañado la pantalla. Apple ha conseguido esto con el Light Seal algo más grueso de lo que parece habitual (que viene con otra talla en la caja).

Las primeras horas son sorpresas continuas



Probablemente las dos primeras horas que probé Apple Vision Pro lo que más repetía es “¿Pero que esto es posible?”. Con todo lo que pasaba delante de mi. La creación del Persona del usuario es asombrosa: en unos minutos tienes un avatar hiperrealista delante de ti (nunca mejor dicho). No entiendo a quienes critican esta funcionalidad - que por cierto está en beta - porque no sea 100% real. Lo será, pero es que el resultado que ofrece Apple es una locura.


Mi "Persona" virtual. Apple Vision Pro apenas tarda un minuto en crearlo.

Mimetiza todos los gestos que haces mientras hablar, incluida lengua, expresiones faciales o las manos, que también pueden aparecer. El trabajo de esta gestión de los sensores del nuevo chip R1 junto a la potencia del M2 es inaudita para un producto de primera generación.

El trabajo con el Mac en un escritorio sin límites, la capacidad de ver cine con una pantalla gigantesca mientras “flotas” por una sala irreal, o en una montaña. Alicia Keys cantando delante ti, o haciendo equilibrio entre dos montañas. Las fotos espaciales que todos podemos hacer con el iPhone 15 Pro Max... los usos y las posibilidades son tantos, que abruman durante las primeras horas. Detallaré los que más he usado en mi análisis completo.


Hay tanto de lo que hablar sobre este dispositivo, que es como si entráramos en un mundo nuevo: aún no lo he explorado a fondo pero las posibilidades y la tecnología es algo que no había visto nunca. Por mucho que pienses que estás preparado para ello.

Muy pronto, en el análisis a fondo de Apple Vision Pro, veremos todos los detalles y el uso en el día a día

Ayer leía en X algunas de las primeras reacciones de los compradores, con una sensación de lo que estamos empezando a vivir similar. Me quedo con el comentario de Casey Neistat, creo que define muy bien los que sentimos quienes hemos podido probarlas ya:

“El Apple Vision Pro es la pieza de tecnología más impresionante que he tocado. No estoy seguro de lo que esperaba, pero es como si alguien del futuro regresara en el tiempo y construyera el futuro usando solo lo que estaba disponible hoy.”

En Applesfera continuaré publicando todo lo que vaya descubriendo culminando con un análisis del detalle muy pronto, y también estaré muy atento a todo lo que los desarrolladores empiezan a ofrecer ahora que está en el mercado. Esto, sólo acaba de empezar. Pero vaya comienzo.

Fuente: Applesfera