17 dicembre 2015 11:07

Secondo la fantascienza, in futuro potremo parlare con il computer di bordo dell’astronave esattamente come faremmo con i robot dell’equipaggio o con gli esseri umani. Ma per il momento, dovremo accontentarci di chiacchierare con il frigorifero e l’aspirapolvere.

Diverse aziende hanno annunciato che sarà più facile programmare software capaci di capire le parole delle persone e rispondere di conseguenza. Almeno tre grandi aziende, tra cui una famosa per la sua app di riconoscimento musicale, affermano di poter semplificare l’interazione con le app e i dispositivi intelligenti.

Oggi tutto sembra collegato a internet – anche se forse non dovrebbe essere così – e uno degli aspetti più complicati è l’interazione con i dispositivi. Picchiettare su un piccolo schermo è più complicato che parlare con qualcosa. Ma sviluppare un software capace di capire le persone, e per di più capace di trovare un senso alle loro parole e rispondere qualcosa di sensato, non è semplice. Siri non riesce a capire quasi niente di quel che le viene detto, e gli altri assistenti virtuali non sono meglio.

Potrete dire al tostapane quanto dev’essere abbrustolita la fetta per la colazione del giorno dopo

Più gli sviluppatori riusciranno a incorporare il riconoscimento vocale nei loro software, più saranno i dati che quei sistemi saranno in grado di usare per migliorare la loro comprensione linguistica. Potrebbe non essere così lontano il momento in cui potrete dire al tostapane quanto dev’essere abbrustolita la fetta per la colazione del giorno dopo.

Mix, la nuova piattaforma di Nuance, è stata lanciata il 15 dicembre. È un toolkit che gli sviluppatori possono usare per approntare una app di riconoscimento e comprensione vocale in pochi minuti. Nuance ha mostrato a Quartz un programma creato per chiedere a un robot virtuale di ritrovare un gatto. È possibile domandare al robot di guardare sotto il divano, proseguendo con domande del tipo “e dietro le tende?”.

Le api (application programming interface, l’interfaccia di programmazione di un’applicazione) di Nuance permettono al programma di capire il contesto della domanda seguente senza bisogno di chiedergli di nuovo di trovare il gatto. L’idea è permettere agli sviluppatori di avvicinarsi il più possibile al modo in cui le persone parlano tra loro, applicandolo ai dispositivi intelligenti, come il termostato Nest o i robot domestici.

La piattaforma di SoundHound, chiamata Houndify, ha un obiettivo simile. “C’è bisogno di interfacce veloci, precise, naturali, abilitate alla voce per un numero sempre più alto di dispositivi connessi”, ha detto Keyvan Mohajer, amministratore delegato di SoundHound.

L’azienda si sta anche associando con alcuni partner per fornire altri dati che gli sviluppatori potranno usare, come le informazioni di Expedia su voli e alberghi, il meteo di AccuWeather, risultati sportivi, tassi di cambio e quotazioni azionarie.

Invece di trafficare tra menù e tasti, si fa una domanda al dispositivo, come si farebbe con una persona in carne e ossa

Recentemente SoundHound ha lanciato un’app di assistenza virtuale, Hound, che usa molte delle stesse api disponibili per gli sviluppatori. È possibile fargli domande complesse e articolate sul costo dei mutui, o trovare l’hotel che si sta cercando per un viaggio. Invece di dover trafficare tra menù e tasti, si può fare una domanda a Hound come si farebbe con una persona in carne e ossa.

Anche Microsoft ha lanciato alcuni strumenti per il Project Oxford, la sua divisione di ricerca sull’intelligenza artificiale, e ha creato una serie di strumenti per aiutare gli sviluppatori a includere nelle app l’apprendimento delle macchine e il riconoscimento vocale.

Il 15 dicembre ha annunciato delle api che potrebbero superare l’ostacolo principale delle app di riconoscimento vocale: il fatto che non riescono mai a capirci. Le due nuove app di riconoscimento mirano a poter determinare chi sta parlando e di identificare le voci anche in ambienti rumorosi.

Il 2015 non è stato l’anno migliore per l’intelligenza robotica ma è stato in grado d’indicare la strada verso automobili, robot e assistenti virtuali che esisteranno nel prossimo futuro. Quando un numero maggiore di sviluppatori avrà accesso a questi strumenti e le persone saranno in condizione, di rimando, di fornire loro ulteriori informazioni, la capacità dei sistemi di comprenderci migliorerà. Ibm, per esempio, ha appena integrato il suo sistema di intelligenza artificiale Watson nel robot giapponese Pepper, per usarlo come commesso quando riuscirà a capire le domande che gli saranno rivolte.

E in futuro speriamo che, quando chiederemo ai robot di aprire il portello delle capsule delle nostre astronavi, saranno collaborativi.

(Traduzione di Federico Ferrone)

Questo articolo è stato pubblicato su Quartz.

This article was originally published in Quartz. Click here to view the original. © 2015. All rights reserved. Distributed by Tribune Content Agency

Internazionale pubblica ogni settimana una pagina di lettere. Ci piacerebbe sapere cosa pensi di questo articolo. Scrivici a: posta@internazionale.it