Apple è entrata ufficialmente nell’era dell’AI con il suo iPhone 16

Presentato nell'Apple Event a Cupertino, il nuovo device ha delle funzionalità che virano verso l'intelligenza artificiale e che cedono definitivamente il passo ai content creator

10/09/2024 di Gianmichele Laino

Si scrive nuovo iPhone 16, si legge Apple Intelligence. L’ultimo prodotto dell’azienda di Cupertino è stato presentato, come al solito, in pompa magna nell’Apple Event del 9 settembre, insieme ad altri top di gamma come il nuovo Apple Watch e i nuovi AirPods. Nella versione pro e nella versione pro max, i device dell’azienda della mela morsicata hanno caratteristiche completamente rivoluzionarie e costi piuttosto in linea con le uscite precedenti: iPhone 16 Pro parte da € 1.239 e iPhone 16 Pro Max parte da € 1.489. Nelle versioni base, i costi sono leggermente inferiori: l’iPhone 16 parte da € 979, mentre l’iPhone 16 Plus parte da € 1.129. Ovviamente, l’evento non si è limitato a questo: sono stati presentati anche l’Apple Watch Series 10 (che ha fatto progressi soprattutto nel design, visto che è un 10% più sottile dei modelli precedenti) che ha un costo minimo di €459, l’Apple Watch Series 10 SE che parte da €259, l’Apple Watch Ultra che parte da €909. Inoltre, sono stati presentati le AirPods 4 che possono essere già preordinati al prezzo di €149, mentre la versione con riduzione del rumore automatica costa €199; le AirPods Max con ricarica USB-C, invece, possono essere già preordinate al prezzo di €579.

LEGGI ANCHE > Che ne farà Apple dei nostri dati personali, dopo aver sdoganato Apple Intelligence?

Nuovo iPhone 16, il ruolo incredibile dell’intelligenza artificiale

Dopo aver smarcato la questione prezzi (che è notoriamente quella di maggiore interesse quando viene presentato un nuovo prodotto della Apple), è opportuno analizzare la più grande novità che il nuovo iPhone 16 porta con sé: si tratta, infatti, del ruolo preminente di Apple Intelligence, l’ecosistema AI che è stato sviluppato recentemente a Cupertino. Ne abbiamo già parlato e abbiamo visto come Apple Intelligence stia causando problemi, a livello di raccolta dati, soprattutto in Europa dove – non a caso – non sarà disponibile almeno fino alla fine del 2024 (ma non si esclude che si possa andare oltre). Bisognerà, comunque, avere una panoramica e una traccia di tutto quello che l’azienda intende fare con il suo recentissimo prodotto di intelligenza artificiale.

Nel suo comunicato di lancio, Apple ha riassunto in tre punti essenziali il ruolo di Apple Intelligence sui nuovi device: comprendere e creare testo e immagini, eseguire azioni nelle app e basarsi sul contesto personale per semplificare e accelerare le attività di tutti i giorni. Si tratta sicuramente di elementi che permetteranno di migliorare la scrittura di un testo, grazie alle correzioni automatiche sempre più precise e affidabili (ma sarà possibile anche riscrivere o riassumere un elaborato lungo). L’intelligenza generativa sarà di supporto anche nella costruzione delle cosiddette Genmoji (emoji automaticamente generate), mentre Image Playground permette di dar vita a immagini spiritose in pochi istanti.

La sintesi delle chiamate e l’interazione con Siri

Quando verrà utilizzata l’app Telefono, i partecipanti alla chiamata si troveranno di fronte a una notifica automatica, che li avviserà della possibilità della registrazione, della trascrizione e della sintesi per punti della telefonata, con tutti gli argomenti essenziali che sono stati affrontati nel corso della stessa.

Grazie ad Apple Intelligence, Siri sarà molto più performante. L’assistente automatico della Apple, infatti, sarà in grado di soddisfare una richiesta anche se quest’ultima dovesse arrivare da un utente che incespica con le parole o che si interrompe per poi riprenderla. Non solo: le attività dell’utente sullo schermo del nuovo iPhone 16 saranno “utili” a Siri per supportarlo nelle sue azioni quotidiane e per interagire con i contenuti che l’utente stesso ha a disposizione.

Con queste funzionalità avanzate, si pone con ancora maggiore forza il tema della privacy. Se è vero che le richieste meno elaborate saranno gestite on-device (mantenendo quella resilienza e quell’indipendenza che Apple è solita garantire ai propri utenti), per forza di cose le richieste basate sull’AI generativa non potranno essere processate all’interno del dispositivo, ma saranno gestite dal Private Cloud Compute, dunque esternamente al dispositivo. E se consideriamo che l’implementazione di Apple Intelligence passa da un accordo con OpenAI e con punti di contatto con ChatGPT, allora forse dobbiamo abituarci a considerare la privacy di Cupertino non più come un monolite inscalfibile.

Share this article
TAGS