De la primele mele experiențe cu ochelari pentru realitate augmentată până la prototipurile de astăzi, Google mi-a prezentat mai multe variante de ochelari Android XR în demonstrații recente, alături de parteneri precum Xreal și Samsung, folosind un Google Pixel 10. Evoluția acestor dispozitive pornește de la soluții greoaie și experimentale și ajunge la rame subțiri care utilizează waveguide-uri pentru a proiecta imagini ce par a pluti; ceea ce am văzut a confirmat din nou trecerea tehnologiei din laborator către produse purtabile în oraș. Waveguide-urile dezvoltate de Google direcționează cadre vizuale din mici ecrane integrate în marginea ramei prin lentile speciale, astfel încât elemente precum ora sau o pictogramă de navigație rămân lizibile fără a-ți bloca vederea reală; este o schimbare notabilă față de abordări precum Vision Pro sau Galaxy XR, care se bazează pe microdisplays de rezoluție înaltă și închid complet vederea asupra lumii reale.
Am încercat atât prototipurile monoculare, cât și pe cele cu afișare pe ambele ochiuri. Modelele monoculare sunt ușoare și aproape la fel de subțiri ca o pereche modernă de ochelari, au fost prevăzute cu lentile de corecție și se conectează, în principiu, la telefon, în demo la un Pixel 10; ideea e clară: delegi procesarea smartphone-ului pentru a păstra rama simplă și confortabilă. Versiunile duale oferă stereoscopie, un câmp vizual mai larg și senzație de adâncime care transformă hărțile în panorame 3D și imaginile de interior în scene spațiale, deși conținutul filmat nativ în 3D rămâne cel mai convingător. Controlul este hibrid: gesturi pe ramă, butoane și, în unele cazuri, un puck de procesare separat, cum este Xreal Project Aura, care include chiar un trackpad miniatural legat la o unitate de calcul de dimensiunea unui telefon.
Google a etichetat prototipurile drept AI Glasses, integrând Gemini pentru asistență permanentă. Există și variante fără ecrane, care ascultă și răspund prin difuzoare încorporate, astfel poți primi doar informație audio. În demo am folosit un long press pe tija ramei pentru a apela Gemini, i-am cerut muzică și imediat a apărut un mic widget de redare YouTube plutind în câmpul vizual, însoțit de sunet prin boxele ochelarilor. Am testat și funcții practice: am arătat spre un raft din bucătărie, iar Gemini a sugerat o rețetă pe baza ingredientelor (simplificat: sos de roșii când erau conserve de roșii), am folosit camera pentru a trimite imagini, iar editările rapide au fost făcute cu Nano Banana Pro, modelul AI din cloud capabil să adauge elemente fotorealistice, de exemplu, am cerut umplerea unei polițe cu ursuleți de pluș și, în câteva secunde, i-am văzut integrați natural în imaginea din fața mea, fără a-mi obstrucționa vederea. Camera și modelele din cloud permit și traduceri în timp real; când o persoană vorbindă chineză a intrat, ochelarii au detectat limba și mi-au livrat traducerea audio în urechi, iar textul a apărut și în câmpul vizual, rapid și cu un grad surprinzător de acuratețe.
Navigația este un caz de utilizare evident: am cerut indicații către Museum of Illusions și am observat instrucțiunile de rotație plasate în partea superioară a câmpului vizual, iar privirea în jos îmi afișa o mini-hartă cu poziția și orientarea mea. Google a arătat și integrarea cu date Uber pentru navigare în interiorul clădirilor mari, utilă în aeroporturi sau mall-uri. Xreal Project Aura propune propria abordare: Sony Micro LED proiectează imagini prin prisme mai groase, iar pachetul include acel puck de procesare conectat la ramă, oferind un câmp vizual de aproximativ 70 de grade și control prin gesturi, nu prin urmărire oculară; asta înseamnă mimarea unei atingeri în aer pentru a selecta elemente, dar experiența de productivitate, precum conectarea la un PC pentru a lucra pe un ecran virtual mare, pare solidă. Aura este gândit mai degrabă ca un dispozitiv episodic, pe care îl folosești când ai nevoie acasă, la birou sau în călătorii ocazionale, spre deosebire de prototipurile destinate purtării zilnice.
Samsung Galaxy XR rămâne relevant, cu actualizări incremental, inclusiv Likenesses, alternativa Google la Personas de pe Vision Pro; în locul capturii directe cu camerele căștii, Galaxy XR generează un avatar animat pornind de la o fotografie făcută cu telefonul, iar în apelurile Google Meet am văzut o reprezentare aproape realistă care urmărea mișcările feței și ale mâinilor. Google afirmă că, pe viitor, chiar și persoanele care nu poartă headset ar putea avea o reprezentare animată bazată doar pe audio. Rămân totuși întrebări practice: autonomia bateriei și momentul lansării comerciale a acestor rame AI în forme cotidiene și accesibile, Google nu a oferit date precise, iar colaborările cu branduri de rame precum Warby Parker și Gentle Monster par încă în desfășurare. Ecosistemul se conturează totuși; telefoane, ceasuri Pixel, computere și magazine de aplicații par pregătite să susțină o ofertă mai largă de ochelari AR.
Project Aura demonstrează că un sistem Android XR poate funcționa ca un computer integrat într-o pereche de ochelari, nu doar ca un accesoriu. Tema principală devine echilibrul dintre utilitate continuă și utilitate episodică, între externalizarea procesării către telefon pentru confort și autonomie și necesitatea unei autonomii complete în rame. Problemele practice, baterie, cost, designul ramei, confidențialitate când camerele și traducerile sunt active, vor dicta viteza adoptării în viața de zi cu zi. Dacă ai avea la dispoziție un Pixel 10 și niște rame Android XR, ți-ar plăcea să le folosești pentru navigare, traduceri sau ca asistent multimedia în oraș?

Fii primul care comentează