Anche Amazon, dopo Google e Microsoft, vuole fare il suo ingresso nel mondo dell’intelligenza artificiale e dei chatbot.

Da tempo, il panorama dei chatbot è una tecnologia in fase di sperimentazione da parte di compagnie che sviluppano dei software professionali e offrono servizi cloud come Aws ad esempio che offre già degli strumenti utili agli sviluppatori per creare siti web attraverso l’IA.

Afferma anche Clem Delangue, AD di Hugging Face, che verrà inserito su Trainium, chip di intelligenza artificiale creato proprio da Aws e dedicato alle aziende.

Il vicepresidente del database Swami Sivasubramanian ha dichiarato che le tecnologie come Trainium possono offrire dei veri vantaggi agli sviluppatori in termini di tempo e denaro sfruttando l’IA per compilare velocemente i loro progetti, riducendo i rischi di errore durante la fase di scrittura del codice.

 Proprio per questo si è firmato un accordo con la startup statunitense specializzata in intelligenza artificiale generativa, la Hugging Face Inc. con lo scopo di ampliare i propri servizi cloud integrandoli all’uso di strumenti avanzati e costi più bassi. L’accordo, di cui non sono visibili i dettagli economici, permetterebbe ad entrambe le società di lavorare anche con altri partner del settore.

Viene posto però un altro quesito a Dave Limp, senior vice presidente di Amazon devices & Services, persona più importante tra i componenti che hanno originato i prodotti più noti di Amazon quali Alexa, Echo, Kindle, FireTv, Ring, Link: perché Alexa non riesce ad essere come ChatGPT?

A questa domanda Limp, si mostra positivo dichiarando: “ Oggi tutti sono sorpresi dell’intelligenza artificiale. Chi ha provato ChatGPT ha avuto una epifania, è rimasto sbalordito e sorpreso da quello che si poteva fare. Io no, o meglio, ho vissuto questa crescita in modo graduale anche perché già 14 anni fa utilizzavamo l’intelligenza artificiale per il controllo delle frodi in Amazon. La mia epifania l’ho avuta 18 mesi fa, molto prima della diffusione di ChatGPT, quando il team di Alexa ha sviluppato un Large Language Model di 20 miliardi di parametri e ho visto con i miei occhi cosa era in grado di fare questo modello.” [DDay.it].

Il riferimento è ad Alexa TM 20B (Teacher Model 20 billion, miliardi di parametri usati dal modello). Prima di questo nuovo modello, Alexa analizzava e comprendeva la richiesta vocale e attivava un intento; adesso invece si  genera automaticamente le richieste dell’utente per ogni intento e l’informazione può essere riferita anche in tutte le lingue parlate dal Alexa; tale modello, dunque, ragiona similmente a ChatGPT.

Limp con ciò vuole dimostrare come Alexa non è per niente dietro rispetto a GPT di OpenAi oppure a Palm di Google, ma al momento non è possibile applicarvi totalmente l’intelligenza artificiale generativa perché c’è bisogno di una precisione al 100% ed attualmente Alexa non è capace di offrirla poiché segue ed attua operazioni ben precise, senza troppa astrazione.

Amazon infatti, come affermato dallo stesso Limp, sta già lavorando su un modello generativo capace di sapere e rispondere a tutto, però è in fase di studio per evitare di renderlo noioso con risposte troppo lunghe, deve essere discorsivo, conciso e diretto.

Questo discorso Limp però lo adatta anche all’idea di creazione di un robot poiché pensa possa essere più adatto per rispondere, aiutare e sorvegliare rispetto al computer mobile e a tal proposito spiega la sua teoria: “[…] Potete essere d’accordo oppure no, ma crediamo che da qui a cinque / dieci anni ogni casa avrà un robot […] Oggi ci sono Echo e Astro, domani ci saranno robot ancora più utili capaci di reggere una conversazione e di mostrarsi proattivi”. [ansa.it]