Vai al contenuto
Home » Meta porta intelligenza artificiale e traduzioni live sui Ray-Ban smart glasses

Meta porta intelligenza artificiale e traduzioni live sui Ray-Ban smart glasses

Meta AI smart glasses introducono live AI, traduzioni e Shazam, cambiando l'uso degli occhiali intelligenti per utenti di tutto il mondo.

Meta ha annunciato il lancio di tre nuove funzionalità per i suoi occhiali intelligenti Ray-Ban, puntando a consolidare il ruolo dell’intelligenza artificiale (AI) nel mercato emergente dei dispositivi indossabili.

Meta AI smart glasses – Le novità includono un assistente AI live, traduzioni in tempo reale e il supporto Shazam. Mentre Shazam sarà disponibile per tutti gli utenti, le altre due funzionalità restano accessibili esclusivamente ai membri del programma di accesso anticipato di Meta.

Annuncio e contesto delle nuove funzionalità

Le nuove feature sono state presentate al Meta Connect 2024, l’evento annuale durante il quale l’azienda introduce le principali innovazioni tecnologiche. L’assistente AI live e la traduzione in tempo reale rappresentano un passo significativo verso una nuova generazione di dispositivi intelligenti, capaci di integrare l’intelligenza artificiale nelle attività quotidiane degli utenti.

Mark Zuckerberg, CEO di Meta, ha mostrato il funzionamento di Shazam su un Instagram reel, sottolineando come la tecnologia sia pronta per il grande pubblico. Parallelamente, il supporto AI avanzato e la traduzione live richiedono l’adesione al programma Early Access, accessibile previa candidatura sul sito ufficiale di Meta.

Live AI: interazione naturale con l’ambiente circostante

Meta AI smart glasses – L’assistente AI live trasforma i Ray-Ban smart glasses in uno strumento di supporto quotidiano. L’intelligenza artificiale di Meta può osservare l’ambiente circostante e rispondere a domande contestuali. Un esempio pratico è rappresentato dalla spesa al supermercato: l’utente può chiedere all’assistente AI suggerimenti di ricette basate sugli ingredienti esposti.

Secondo Meta, l’intelligenza artificiale funziona per sessioni continue di circa 30 minuti con una carica completa, un limite che garantisce un equilibrio tra utilizzo e autonomia del dispositivo. La funzionalità punta a migliorare l’interazione con il mondo reale, offrendo risposte immediate e pertinenti.

Traduzioni live: un ponte tra le lingue

La traduzione live è progettata per facilitare la comunicazione tra persone che parlano lingue diverse. Gli occhiali supportano attualmente traduzioni tra l’inglese e tre lingue europee: spagnolo, francese e italiano. Le traduzioni possono essere ascoltate direttamente dagli occhiali oppure visualizzate come trascrizioni sull’app Meta View.

L’uso della funzionalità richiede il download anticipato delle coppie di lingue desiderate e la configurazione della lingua parlata. Questa caratteristica è particolarmente utile in contesti di viaggio, lavoro internazionale o interazioni interculturali, semplificando le conversazioni e abbattendo le barriere linguistiche.

Occhiali AR Meta Orion la tecnologia indossabile, combinando design elegante e funzionalità avanzate per una realtà aumentata senza precedenti
Fonte: Meta

Shazam: riconoscimento musicale alla portata di tutti

Il supporto Shazam è una delle funzionalità più accessibili introdotte da Meta. Con un semplice comando all’assistente AI, gli occhiali possono identificare la canzone in riproduzione. Questa integrazione sfrutta la potenza del riconoscimento musicale già consolidato di Shazam, rendendo gli smart glasses uno strumento pratico anche per gli appassionati di musica.

Attualmente, la funzionalità Shazam è disponibile per tutti gli utenti residenti negli Stati Uniti e in Canada, mentre si attende un’espansione futura in altre regioni.

Meta AI smart glasses – Dispositivi AI indossabili in forte crescita

L’implementazione delle nuove funzionalità sui Ray-Ban smart glasses arriva in un momento strategico. Le Big Tech stanno puntando con decisione sull’intelligenza artificiale come elemento distintivo per gli occhiali intelligenti. Google, ad esempio, ha recentemente lanciato Android XR, un sistema operativo dedicato ai dispositivi indossabili, posizionando l’assistente Gemini come punto di riferimento per questa nuova categoria tecnologica.

Andrew Bosworth, CTO di Meta, ha ribadito in un blog ufficiale come il 2024 stia rappresentando un anno cruciale per gli occhiali AI. Secondo Bosworth, questi dispositivi rappresentano il miglior formato possibile per un assistente AI nativo, capace di combinare hardware e intelligenza artificiale fin dall’inizio. La visione di Meta è chiara: definire una categoria di dispositivi che risponda in modo proattivo alle necessità degli utenti.

Aggiornamenti e accessibilità

Per accedere alle nuove funzionalità, gli utenti devono aggiornare il software degli occhiali alla versione v11 e verificare che l’app Meta View sia aggiornata alla versione v196. I membri non iscritti al programma Early Access possono comunque fare domanda online per ottenere l’accesso anticipato alle feature AI avanzate.

Meta conferma inoltre che gli aggiornamenti sono progettati per garantire una transizione graduale e stabile, assicurando un’esperienza utente ottimale. Questo approccio punta a evitare i problemi comuni legati all’implementazione di nuove tecnologie su larga scala.

Meta AI smart glasses – Il mercato degli occhiali intelligenti

L’arrivo delle nuove funzionalità sui Ray-Ban smart glasses rappresenta un ulteriore passo avanti in un mercato in continua evoluzione. Le tecnologie AI e AR stanno ridefinendo il concetto di dispositivi indossabili, trasformandoli in strumenti sempre più indispensabili nella vita quotidiana.

Tuttavia, la diffusione su larga scala dipenderà dalla capacità delle aziende di superare alcune sfide chiave. Tra queste, l’autonomia della batteria, l’accessibilità economica e la compatibilità con diverse esigenze culturali e linguistiche.

Indosseremo tutti un’AI?

Meta continua a posizionarsi come uno dei principali attori nell’ambito della realtà aumentata e dell’intelligenza artificiale indossabile. Con l’introduzione di live AI, traduzioni in tempo reale e il supporto Shazam, i Ray-Ban smart glasses si avvicinano sempre di più a diventare strumenti indispensabili per un pubblico globale.

Fonte: Meta