Siri è diventata più aperta. Ma è anche più intelligente?
iStock
Tecnologia

Siri è diventata più aperta. Ma è anche più intelligente?

L’assistente vocale di Apple ora interagisce con le applicazioni di terze parti. Sarà anche in grado di capirci meglio?

Le interfacce vocali sono il futuro. Anche per Apple. La conferma che tutti attendevano è arrivata dalla WWDC, con gli annunci delle nuove funzionalità di Siri: Tim Cook e i suoi luogotenenti hanno fatto capire che una delle priorità dell’azienda è favorire il dialogo fra uomo e macchina, non solo attraverso le solite interfacce touch, ma anche e soprattutto mediante l’interazione verbale.

L’assistente virtuale di Apple – questa è la prima buona notizia – non sarà più confinata al mondo iOS ed Apple Tv, ma è pronta a fare il suo ingresso anche sui Mac. Ma soprattutto - e qui sta forse la novità più succosa - sarà più intraprendente. Significa che gli utenti potranno chiedere al proprio iPhone di inviare un messaggio su WhatsApp, chiamare un taxi su Uber o cercare un video dei Foo Fighters su YouTube. Con la sola imposizione della voce.

Le app (non solo quelle di Apple) in viva voce
È il risultato di una scelta strategica che prevede l’apertura del codice verso gli sviluppatori di terze parti. Apple ha capito che il ruolo del suo assistente virtuale non può essere circoscritto alle sole applicazioni proprietarie ma deve estendersi a un ecosistema più ampio, che comprenda anche le applicazioni esterne più utilizzate.

Ciò non vuol dire che potremo utilizzare Siri per fare ogni cosa. Non tutte le app di terze parti potranno essere interrogate attraverso l’interfaccia vocale di Apple. Chi ha sottoscritto un abbonamento con Spotify o Deezer, ad esempio, non potrà chiedere a Siri di avviare la riproduzione di una traccia o di una playlist proveniente da questi servizi. E il motivo si può facilmente intuire: Apple vuole mantenere qualche privilegio per le sue applicazioni proprietarie. Chi vuole utilizzare la voce per gestire la propria musica in streaming, per dirla senza troppi giri di parole, per il momento non ha altra scelta se non quella di sottoscrivere un abbonamento ad Apple Music.

Ci vuole orecchio (e intelligenza)
Ma il dubbio più grande sul futuro di Siri è legato all'evoluzione della suo quoziente intellettivo. Chiarito che l’assistente vocale di Apple è ora più aperto, anche se con qualche limitazione, ci si chiede: in che modo verrà migliorata la comprensione del linguaggio naturale? Detto in altri termini, quanto tempo dovremo attendere prima di poter parlare al nostro iPhone o a qualsiasi altro dispositivo Apple con la stessa naturalezza con cui ci rivolgiamo a una persona in carne ed ossa?

"Tutti gli assistenti vocali commettono degli errori", commenta Sean O'Kane dalle pagine di The Verge, "ma Siri tende a fraintendere gli utenti più spesso. In questo senso, bisogna capire se e come Apple sia intervenuta sul problema, migliorando la capacità del sistema di comprendere la nostra voce così da poter offrire risultati coerenti".

È un aspetto che attiene non solo alle capacità uditive ma più in generale al ruolo dell’intelligenza artificiale all’interno della piattaforma. Sottolinea ancora O'Kane "Google, Microsoft e Amazon hanno usato le reti neurali fin dall'inizio per rendere i loro assistenti più abili a riconoscere il parlato, a comprendere ciò che viene chiesto così da migliorare i tempi di risposta. Apple ha cominciato a puntare in questa direzione nel 2014, ma non è chiaro quale sia il peso che ricopre al giorno d’oggi".

Il dispositivo conta
C’è un ultimo aspetto da considerare, ed è la dipendenza dai dispositivi in uso. Per com’è strutturata adesso, Siri non può offrire un’esperienza senza soluzione di continuità, spiega Farhad Manjoo sul New York Times, le capacità sono diverse a seconda del dispositivo: "Sul vostro iPhone potete chiamare un taxi su Uber, se avete installato l'applicazione, ma sul Mac no. Allo stesso modo potete cercare i filmati di Stephen Curry su YouTube di Apple TV, ma non sull’iPhone".

Si tratta di un dettaglio su cui Apple dovrà senz’altro lavorare, se vuole recitare un ruolo da protagonista nel futuro delle interfacce vocali. In gioco non c’è solo la capacità di svincolarsi da questo o quel dispositivo ma di comprendere richieste sempre più complesse. "Ad esempio - suggerisce lo stesso Manjoo - cosa accadrebbe se chiedessi a Siri di vedere se c'è una camera disponibile nel mio hotel preferito di Seattle per il week-end del mio anniversario di matrimonio e di prenotare nel caso trovasse un prezzo minore di 200 dollari a notte?"

Le risposte? Sono nascoste fra le applicazioni
Per poter rispondere a domande così articolate, è evidente, un’assistente vocale dovrebbe avere la possibilità di prelevare le informazioni chiave non dal dispositivo ma dai singoli servizi online. Si tratterebbe in buona sostanza di ragionare come una piattaforma trasversale, un’entità capace di saltare da un’applicazione all’altra, e che sappia trovare la strada più breve che porta alla risposta giusta.

È questa, in fin dei conti, l'unica via possibile per snellire l’attuale esperienza d’uso basata sugli schermi touch. Oggi, per arrivare al dunque, siamo costretti a toccare lo schermo del nostro telefonino più e più volte. Domani tutto questo potrebbe non essere più necessario. Ci penserà l’intelligenza artificiale a farlo per noi.

I più letti

avatar-icon

Roberto Catania

Faccio a pezzi il Web e le nuove tecnologie. Ma coi guanti di velluto

Read More