Physical Address
304 North Cardinal St.
Dorchester Center, MA 02124
Dopo mesi di speculazioni, Apple Intelligence ha fatto il suo debutto al WWDC 2024 a giugno. La piattaforma è stata annunciata in seguito a una raffica di notizie sull’IA generativa provenienti da aziende come Google e OpenAI, suscitando preoccupazioni sul fatto che il colosso tecnologico, noto per la sua riservatezza, avesse perso l’opportunità nell’ultima moda tecnologica.
Contrariamente a queste speculazioni, Apple aveva già un team dedicato che stava lavorando a un approccio molto “Apple” all’intelligenza artificiale. C’era comunque un po’ di spettacolarità durante le dimostrazioni – Apple ama sempre mettere in scena uno spettacolo – ma Apple Intelligence rappresenta in definitiva un approccio molto pragmatico alla categoria.
Apple Intelligence (sì, AI in breve) non è una funzionalità autonoma. Si tratta piuttosto di integrarla nelle offerte esistenti. Anche se è in parte un’operazione di branding, la tecnologia basata su modelli linguistici (LLM) opererà dietro le quinte. Dal punto di vista del consumatore, la tecnologia si presenterà principalmente sotto forma di nuove funzionalità per le app esistenti.
Abbiamo appreso di più durante l’evento di presentazione dell’iPhone 16 di Apple, tenutosi il 9 settembre. Durante l’evento, Apple ha illustrato una serie di funzionalità basate sull’intelligenza artificiale che saranno disponibili sui loro dispositivi, dalla traduzione sull’Apple Watch Series 10 alla ricerca visiva sugli iPhone e una serie di miglioramenti alle capacità di Siri. La prima ondata di Apple Intelligence arriverà alla fine di ottobre, come parte degli aggiornamenti di iOS 18.1, iPadOS 18.1 e macOS Sequoia 15.1. Una seconda serie di funzionalità sarà disponibile nelle versioni beta per sviluppatori di iOS 18.2, iPadOS 18.2 e macOS Sequoia 15.2.
Le funzionalità sono state inizialmente lanciate in inglese americano. Apple ha successivamente aggiunto localizzazioni per l’inglese australiano, canadese, neozelandese, sudafricano e britannico.
Il supporto per cinese, inglese (India), inglese (Singapore), francese, tedesco, italiano, giapponese, coreano, portoghese, spagnolo e vietnamita arriverà nel 2025. È importante notare che gli utenti in Cina e nell’UE potrebbero non avere accesso alle funzionalità di Apple Intelligence a causa di ostacoli normativi.
I responsabili marketing di Cupertino hanno definito Apple Intelligence: “IA per tutti noi”. La piattaforma è progettata per sfruttare ciò che l’IA generativa fa già bene, come la generazione di testo e immagini, per migliorare le funzionalità esistenti. Come altre piattaforme, tra cui ChatGPT e Google Gemini, Apple Intelligence è stata addestrata su modelli di informazioni di grandi dimensioni. Questi sistemi utilizzano il deep learning per creare connessioni tra testo, immagini, video o musica.
Le funzionalità testuali, alimentate dall’LLM, si presentano come strumenti di scrittura. La funzione è disponibile in diverse app Apple, tra cui Mail, Messaggi, Pages e Notifiche. Può essere utilizzata per fornire riassunti di testi lunghi, correggere bozze e persino scrivere messaggi utilizzando suggerimenti per contenuto e tono.
Anche la generazione di immagini è stata integrata in modo simile, anche se in maniera leggermente meno fluida. Gli utenti possono chiedere ad Apple Intelligence di generare emoji personalizzate (Genmoji) in stile Apple. Image Playground, invece, è un’app autonoma per la generazione di immagini che utilizza i prompt per creare contenuti visivi da utilizzare in Messaggi, Keynote o da condividere sui social media.
Apple Intelligence segna anche un rinnovamento tanto atteso per Siri. L’assistente virtuale era stato uno dei primi sul mercato, ma è stato trascurato negli ultimi anni. Siri è ora integrato molto più a fondo nei sistemi operativi di Apple; ad esempio, al posto dell’icona familiare, gli utenti vedranno una luce brillante attorno ai bordi dello schermo dell’iPhone quando è in uso.
Più importante, il nuovo Siri funziona tra le app. Ciò significa, ad esempio, che si può chiedere a Siri di modificare una foto e inserirla direttamente in un messaggio di testo. È un’esperienza fluida che mancava all’assistente in precedenza. La consapevolezza del contesto significa che Siri utilizza il contenuto con cui l’utente sta interagendo per fornire una risposta adeguata.
La prima ondata di Apple Intelligence arriva a ottobre tramite gli aggiornamenti di iOS 18.1, iPadOS 18.1 e macOS Sequoia 15.1, includendo strumenti di scrittura integrati, pulizia delle immagini, riassunti degli articoli e una nuova modalità di input per Siri.
Molte altre funzionalità saranno aggiunte con il rilascio di iOS 18.2, iPadOS 18.2 e macOS Sequoia 15.2. Tra queste ci sono Genmoji, Image Playground, Visual Intelligence, Image Wand e l’integrazione con ChatGPT.
Le funzionalità saranno gratuite, a patto di avere uno dei seguenti dispositivi:
È importante notare che solo le versioni Pro dell’iPhone 15 avranno accesso alle funzionalità, a causa delle limitazioni del chipset del modello standard. Tuttavia, si presume che l’intera linea iPhone 16 sarà in grado di eseguire Apple Intelligence al suo arrivo.
Apple ha adottato un approccio con modelli piccoli e specifici per l’addestramento. Anziché affidarsi a un approccio “all-inclusive” come GPT e Gemini, l’azienda ha compilato dataset interni per compiti specifici, come la scrittura di un’email. Il vantaggio principale di questo approccio è che molti compiti diventano molto meno intensivi in termini di risorse e possono essere eseguiti direttamente sul dispositivo.
Questo non vale per tutto, però. Le query più complesse utilizzeranno il nuovo servizio Private Cloud Compute, con server remoti che funzionano su Apple Silicon, garantendo lo stesso livello di privacy dei dispositivi degli utenti. Se un’azione viene eseguita localmente o tramite il cloud sarà invisibile per l’utente, a meno che il dispositivo non sia offline, nel qual caso le query remote genereranno un errore.
Si è discusso molto della partnership tra Apple e OpenAI prima del WWDC. Alla fine, però, si è scoperto che l’accordo riguardava meno il potenziamento di Apple Intelligence e più l’offerta di una piattaforma alternativa per funzioni che non sono realmente costruite per essa. È un riconoscimento implicito dei limiti di un sistema con modelli piccoli.
Apple Intelligence è gratuita. Lo è anche l’accesso a ChatGPT, sebbene gli utenti con account a pagamento abbiano accesso a funzionalità premium non disponibili per gli utenti gratuiti, inclusa la possibilità di effettuare query illimitate.
L’integrazione con ChatGPT, che debutta su iOS 18.2, iPadOS 18.2 e macOS Sequoia 15.2, ha due ruoli principali: integrare la base di conoscenza di Siri e aggiungere opzioni agli strumenti di scrittura esistenti.
Con il servizio abilitato, alcune domande spingeranno il nuovo Siri a chiedere all’utente di approvare l’accesso a ChatGPT. Esempi di domande che potrebbero far emergere l’opzione includono ricette e pianificazione dei viaggi. Gli utenti possono anche chiedere direttamente a Siri di “chiedere a ChatGPT”.
Compose è l’altra funzione principale di ChatGPT disponibile tramite Apple Intelligence. Gli utenti possono accedervi in qualsiasi app che supporta i nuovi strumenti di scrittura. Compose aggiunge la possibilità di scrivere contenuti in base a un prompt, unendosi agli strumenti di scrittura esistenti come Stile e Riassunto.
Sappiamo per certo che Apple prevede di collaborare con ulteriori servizi di intelligenza artificiale generativa. L’azienda ha praticamente confermato che Google Gemini è il prossimo sulla lista.