Geoffrey Hinton, psicologo cognitivo e scienziato informatico britannico- canadese, noto come “padrino dell’intelligenza artificiale”, nel 2012 con due suoi studenti dell’Università di Toronto, strutturò un sistema di analisi capace di riconoscere all’interno di una vasta gamma di fotografie, degli oggetti specifici.

Ciò è considerato normale oggi, ma dieci anni fa era considerata un’innovazione tecnologica di rilievo.

All’interno dell’azienda di Hinton si svolse un’asta tra la cinese Baidu e Google che terminò con il loro passaggio alla società Google dove Hinton lavorò sullo sviluppo dell’intelligenza artificiale iniziando però successivamente a nutrire preoccupazioni sulla tecnologia e sul suo ruolo per evolversi e migliorare, fino a qualche giorno fa, esattamente il 1° Maggio 2023, quando, come dichiarato al New York Times esprime il desiderio di lasciare Google per poter parlare liberamente dei rischi dell’IA (Intelligenza artificiale).

Le IA creano dei sistemi informatici intelligenti capaci di simulare i comportamenti e le capacità del cervello umano e dei suoi pensieri. Generano infatti dei codici che riescono a gestire in piena autonomia senza supervisione umana; potrebbe però succedere che inaspettatamente agiscano attraverso comportamenti imprevedibili danneggiando i dati utilizzati per addestrarle e del problema se ne verrà a conoscenza solamente a fatti accaduti. La riflessione di Hinton è legata propriamente ai rischi della singolarità tecnologica, specie al momento in cui la capacità di apprendimento delle macchine andrà a superare quella degli esseri umani. Ovviamente non esclude la sopravvivenza dell’umanità, ma osserva anche che non vi sono dei precedenti di una qualche forma di intelligenza artificiale inferiore avente la capacità di controllo su una superiore; proprio per questo, preoccupato degli sviluppi dei sistemi di intelligenza artificiale, comunica al CEO Sundar Pichai la sua decisione.

La sua presa di posizione giunge in un momento in cui un crescente numero di gruppi di difesa, addetti al lavoro tecnologico e legislatori, lanciarono l’allarme sulla fondazione di una nuova generazione di chatbot alimentate dall’IA per diffondere disinformazione e spostare dei posti di lavoro. Hinton a questo riguardo, mostra preoccupazione poiché teme che Internet venga inondato di foto, video e testi falsi realizzati maliziosamente e che l’utente non sia capace di distinguerli dal vero e che l’assistenza al lavoro si trasformi in una sostituzione dei lavoratori.

Alcune figure rilevanti nell’ambito tecnologico come Elon Musk (ceo di Tesla, SpaceX e Twitter), Steve Wozniak (cofondatore di Apple), alcuni luminari dell’intelligenza artificiale quali Yoshua Bengio (vincitore premio Turing, Nobel per le scienze informatiche) e Stuart Russell (autore del testo più studiato nelle università sull’IA), a Marzo firmarono una lettera pubblicata dal Future of life institute, un’organizzazione no profit americana sostenuta da Elon Musk, dove chiedevano ai laboratori di IA di interrompere le sperimentazioni per poi riprenderle solo dopo la definizione di regole globali sull’IA. Hinton non fu tra i firmatari della lettera e affermò: “Non credo dovrebbero aumentare ulteriormente la potenza di questi sistemi fino a quando non avranno capito se possono controllarli”.

All’ente radiofonico e televisivo inglese BBC, Hinton esprime invece il suo timore sullo sviluppo tecnologico, immaginando un futuro in cui le chatbot potrebbero superare il livello informativo di un cervello umano: “In questo momento, quello che stiamo vedendo è che cose come GPT-4 oscurano una persona nella quantità di conoscenza generale che ha e la oscura di gran lunga […] E dato il ritmo dei progressi, ci aspettiamo che le cose migliorino abbastanza velocemente. Quindi dobbiamo preoccuparcene”. (ansa.it)

Per tutti questi motivi, Hinton invita gli scienziati alla collaborazione per comprendere come controllare questa tecnologia affermando in conclusione che non ritiene opportuno ampliare l’IA se prima non vi è la sicurezza di poterle controllare.