Che cos’è l’intelligenza generale artificiale (AGI) e a che punto sono i progetti che vanno in questa direzione

Quando si è parlato di Q* - il progetto di intelligenza generale artificiale su cui avrebbe iniziato a lavorare OpenAI - sono emerse le potenzialità di questa tecnologia

27/11/2023 di Gianmichele Laino

C’è anche un altro modo di chiamarla che, forse, rende ancora meglio l’idea di cosa sia l’AGI. Se l’acronimo sta per intelligenza generale artificiale, in gergo viene anche denominata intelligenza artificiale forte. Questo perché si spinge ben oltre rispetto a tutte le soluzioni di AI che sono state adottate fino a questo momento e che, per esempio, prendevano in considerazione il lato semantico, mettendo da parte (o non focalizzando completamente) il lato matematico.

LEGGI ANCHE > Le ragioni che hanno portato a collegare l’esistenza di Q al licenziamento di Sam Altman

A che punto siamo con l’AGI e perché è così importante

La differenza fondamentale con l’intelligenza artificiale di base è che quest’ultima utilizza – di fatto – dei software di apprendimento e riesce ad adottare delle risposte ad hoc a seconda del quantitativo di dati processati e incamerati. Non è un caso che le varie tipologie di intelligenza artificiale conosciute fino a questo momento abbiano avuto delle risultanti soprattutto nelle chatbot o nel campo dei motori di ricerca. Tutto quello che viene processato dall’intelligenza artificiale, infatti, al momento si basa su qualcosa di già conosciuto. Semplicemente – per così dire – l’intelligenza artificiale non fa altro che sintetizzarlo, scansionarlo, riproporlo a seconda della necessità.

Invece, l’intelligenza generale artificiale ha l’ambizioso obiettivo di emulare il ragionamento umano (cosa tipica, ad esempio, è la risoluzione di complessi problemi matematici). Insomma, non si tratta soltanto di sintetizzare quanto di già esistente, ma si tratta – al contrario – di sviluppare ragionamenti e soluzioni ex novo. Sebbene se ne parli tanto in queste ore – come abbiamo visto c’è stato chi ha collegato l’iniziale allontanamento di Sam Altman da OpenAI proprio a un maggiore investimento in questa sezione dell’intelligenza artificiale -, l’AGI è stata al centro degli studi a partire dai primi anni del nuovo millennio.

Esiste addirittura una non profit – la AGI Society – che, oltre a studiare lo strumento, fa costantemente il punto della situazione in annuali conferenze in cui presenta i risultati raggiunti dai propri ricercatori. Dal 2007 sono state fatte diverse pubblicazioni su questo tema e, inoltre, è stata attiva per diverso tempo una summer school all’interno della quale analizzare e sviluppare progetti e prodotti.

Ci sono anche stati specifici progetti che sono nati in seno alla AGI Society, come NARS, finalizzato «alla costruzione di un sistema intelligente di uso generale, ovvero una “macchina pensante” (nota anche come “AGI”), che segue gli stessi principi della mente umana, e può risolvere problemi in vari ambiti»; OpenCOG, un progetto che mira a costruire un framework di intelligenza artificiale open source; Universal Artificial Intelligence, un modello che si propone di individuare uno standard unitario di intelligenza artificiale (non soltanto di tipo generativo), che possa interessare Unione Europea, Stati Uniti, Russia e tutte le principali aziende del settore Big Tech.

Queste ultime, a loro volta, stanno già provando a implementare dei sistemi AGI per alcuni loro prodotti. Si pensi, ad esempio, a Microsoft che – recentemente – ha dichiarato di essere ormai a un passo da un prodotto che possa basarsi su questo presupposto: il principio di partenza è stato il forte investimento in OpenAI e nel suo ultimo modello linguistico di grandi dimensioni (GPT-4). E qui si ritorna, forse, alla vicenda Altman e a tutte le sue conseguenze.