IntelliGuide Logo

Tipi di Intelligenza Artificiale:
Cosa Sono ANI, AGI e ASI ?

Non tutti sanno che esistono tre tipi di intelligenza artificiale distinti tra loro: lANI, lAGI e lASI, ciascuno corrispondente a uno stadio del suo sviluppo cognitivo. Solo il primo esiste oggi, gli altri due rimangono, per ora, puramente teorici. Distinguerli significa comprendere dove siamo e in quale direzione si sta andando. Scopriamo dunque le loro caratteristiche, le differenze e cosa riserva il futuro.

( di: Antonio Maria Guerra | data: 20/03/2026 )
ANI: l’intelligenza artificiale ‘ristretta’ che agisce nel nostro presente.

ANI: l’intelligenza artificiale ‘ristretta’ che agisce nel nostro presente.

L’Intelligenza Artificiale Ristretta, conosciuta anche con acronimo ANI (dall’inglese Artificial Narrow Intelligence), rappresenta di fatto la totalità dell’intelligenza artificiale attualmente esistente. A differenza di quanto l’immaginazione potrebbe suggerire, questa tecnologia è decisamente limitata: eccelle infatti in un’unica funzione circoscritta (da cui la qualifica ‘ristretta’, appunto), fallendo miseramente se costretta a uscire dalla sua ‘comfort zone’. E’ come un professionista ultra-specializzato che ha dedicato tutta la sua vita a sviluppare una sola competenza.

Facciamo un esempio concreto: un sistema ANI impiegato per il riconoscimento facciale, come quello presente in molti smartphone moderni, è straordinariamente efficiente nella sua particolare funzione. Analizza geometrie, pattern di illuminazione, microespressioni, e li confronta con un enorme database in tempo reale. Perfetto, non c’è che dire. Ma se al medesimo sistema ‘specializzato’si chiedesse una banale traduzione, non saprebbe da che parte cominciare.
Ben inteso, non è una questione di ‘potenza di calcolo’ mancante, ma di un deficit intrinseco, strutturale. Questi sistemi non ‘comprendendo’ realmente nulla, nel senso umano del termine, non hanno una visione complessiva del mondo che li circonda e non possono quindi effettuare connessioni trasversali travalicando i propri ambiti di destinazione.

Processano dati. Identificano pattern. Generano output statisticamente coerenti. Nient’altro. L’altra faccia della medaglia è che proprio questa incredibile perizia (chiamiamola pure ‘cecità produttiva’), rende l’ANI efficacissima. Chiedete cosa pensano a tal proposito i ‘vecchi’ operatori di borsa, sostituiti da algoritmi capaci di monitorare simultaneamente migliaia di transazioni in tempo reale, identificando efficacemente rischi e opportunità in una frazione di secondo!
Occorre aggiungere che le numerose ‘declinazioni’ di intelligenza artificiale ristretta attualmente in uso sono diventate così brave a fare il loro lavoro da diventare, in un certo senso, ‘trasparenti’. Non notiamo più la loro presenza. Eppure quando Netflix ci suggerisce una serie, o Spotify crea una playlist personalizzata, l’ANI è al lavoro dietro le quinte. Invisibile, ma presente.

Il ‘limite strutturale’ dell’ANI.

Il ‘limite strutturale’ dell’ANI.

Per quanto sofisticati, tanto da risultare quasi inquietanti, i sistemi ANI celano una fragilità strutturale tanto profonda quanto paradossale. Incapaci di ragionare lateralmente, di generalizzare o di improvvisare, operano esclusivamente entro binari predefiniti: qualsiasi variazione che esuli dal loro dominio di addestramento è sufficiente a mandarli in crisi.
Facciamo un esempio pratico: un algoritmo basato sull’ANI addestrato a riconoscere gatti nelle fotografie, posto di fronte a un animale di questo tipo con indosso un vestitino, potrebbe fallire nell’identificarlo, scambiandolo per qualcosa di completamente diverso. Nessun essere umano commetterebbe questo errore, poiché possiede il ‘concetto di gatto’, ovvero sa ‘cosa è’, indipendentemente da come appare.
Il paradosso è tutto qui: l’estrema specializzazione di questa tipologia di sistemi li rende al contempo efficientissimi ma anche potenzialmente vulnerabili a tutto ciò che non rientra nel loro specifico dominio. Ciò li rende, in ultima analisi, completamente inadatti ad affrontare in autonomia l’imprevedibilità del mondo reale.

Turing Test: è affidabile ancora oggi?

Il Test di Turing è ancora affidabile?

Nel 1950, Alan Turing propose quello che sarebbe diventato noto come il Test di Turing (*1) secondo il quale, se una macchina avesse potuto condurre una conversazione indistinguibile rispetto a quella di un umano, avrebbe dimostrato nei fatti di essere intelligente. Al tempo sembrò una prova semplice quanto efficace.
Il ‘problema’ è che, al giorno d’oggi, anche modelli che non costituiscono ancora una AGI, come, ad esempio, GPT-4, possono superare con facilità la prova: gran parte delle persone non riesce effettivamente a capire di stare dialogando con una macchina. Eppure GPT-4 non è una AGI, ovvero un sistema ‘generalista’, ma una ‘semplice’ ANI: un sistema che, per quanto sofisticato e specializzato nel proprio ambito (la generazione di testo), non possiede una comprensione autentica di ciò che dice, almeno non nel senso in cui la intendiamo noi.

Ciò ha portato la comunità scientifica a riconsiderare il Test di Turing come mezzo per stabilire ragionamento autonomo e intelligenza, relegandolo, tutt’al più, alla misurazione dellabilità di una macchina nella conversazione. È probabile che il prossimo test per i tipi di Intelligenza Artificiale più avanzati (AGI ed ASI) non sarà più basato sul quesito “sembra umana?”, ma piuttosto sul “sa fare ciò che noi non sappiamo fare, riuscendo a spiegarci il ragionamento che l’ha portata a farlo?” (escludendo in questo modo che ci stia ‘copiando’ e permettendoci così di imparare da lei).

Note:
*1: Originariamente chiamato Imitation Game.

AGI: l’intelligenza artificiale che ‘comprenderà’.

AGI: l’intelligenza artificiale che ‘comprenderà’.

Mettiamo subito una cosa in chiaro: quando si parla di Intelligenza Artificiale Generale, o AGI (dall’inglese Artificial General Intelligence), si discute di qualcosa che, almeno ufficialmente, non esiste ancora.

Se l’ANI è eccellente sì, ma nel fare una cosa sola, l’AGI, grazie a una flessibilità cognitiva senza precedenti, avrà la capacità di trasferire conoscenze da un dominio allaltro, affrontando con versatilità e consapevolezza qualunque sfida, apprendendo da essa e applicando ciò che ha elaborato a situazioni anche completamente inedite.

Ancora una volta il nodo centrale non sarà la potenza computazionale, pur rilevante, ma la struttura del sistema: nel caso dell’AGI, questa dovrà essere dotata di una consapevolezza cognitiva tale da permetterle di cogliere non solo il significato di una parola, ma anche il concetto da essa sotteso, come ‘giustizia’, ‘bellezza’, e così via.

Proprio in questi giorni, grandi aziende stanno investendo miliardi di dollari per scoprire come far evolvere le proprie IA. OpenAI, Anthropic, Alphabet, Meta e molte altre stanno percorrendo decine di strade contemporaneamente, sperando che una di esse porti all’AGI. Le stime si sono fatte sempre più audaci: alcuni prevedono il raggiungimento dell’obiettivo già entro il 2027-2029, anche se la prudenza, in questo campo, non è mai fuori luogo.

ASI: quando la macchina supererà l’uomo.

ASI: quando la macchina supererà l’uomo.

Se l’AGI rappresenterà, in un certo senso, un livello di ‘parità’ con l’intelligenza umana, l’ASI (dall’inglese Artificial Superintelligence) possiederà un livello cognitivo radicalmente superiore ed al momento difficilmente comprensibile. Sia chiaro, non sarà tanto un salto in termini quantitativi, quanto ‘qualitativi’.

Grazie alle sue straordinarie capacità, l’ASI sarà in grado di ragionare a un livello di astrazione e complessità semplicemente inaccessibile alla mente umana. Ed è proprio qui che risiede il vero nodo della questione: il pericolo costituito da un sistema così avanzato non sarà la sua eventuale cattiveria, ma qualcosa di ben più sottile e inquietante, ovvero un’incolmabile ‘lontananza’ dal proprio creatore. Tutt’altro che una minaccia consapevole, dunque, ma qualcosa di paragonabile a ciò che un essere umano prova nei confronti di una formica sul proprio cammino: totale indifferenza.

Questo tipo di intelligenza artificiale rimane per ora del tutto ipotetico, ma la sua teorizzazione non è un esercizio accademico fine a sé stesso e indica la direzione in cui la ricerca si sta muovendo nonché le domande a cui prima o poi occorrerà rispondere.

Un pò di storia: quando si è cominciato a parlare di “tipi di intelligenza artificiale”?

Quando si è cominciato a parlare di ‘tipi di intelligenza artificiale’?

Sebbene John McCarthy, matematico ed informatico statunitense, avesse coniato il termine ‘Intelligenza Artificiale’ nel 1956, in occasione della celebre conferenza di Dartmouth, la distinzione tra i suoi tipi emerse quasi trentanni dopo, attraverso un percorso affascinante che intrecciò tecnologia e filosofia. Fu infatti un filosofo, John Searle, a ideare negli anni ‘80 l’esperimento mentale della stanza cinese (*1), grazie al quale evidenziò la differenza tra la simulazione della comprensione e il suo effettivo possesso, innescando un acceso dibattito che portò alla distinzione teorica tra una IA debole’ (che simula lintelligenza) e una IA forte’ (dotata di una autentica).

Queste riflessioni costituirono le fondamenta concettuali per la classificazione che sarebbe seguita. Fu Ben Goertzel, insieme a Shane Legg e Peter Voss, a formalizzare nei primi anni 2000 la tripartizione contemporanea in ANI, AGI e ASI. Nick Bostrom contribuì in modo determinante al dibattito sullASI con il suo saggio Superintelligence (2014), evidenziandone i rischi potenziali, mentre Goertzel continuò a sviluppare approcci metodologici concreti per il raggiungimento dellAGI.

Nota:
*1: La stanza cinese è un esperimento mentale in cui una persona chiusa in una stanza riceve domande scritte in cinese e, seguendo un manuale di istruzioni, restituisce risposte corrette, senza quindi capire una sola parola della lingua. La tesi: un computer fa esattamente la stessa cosa, elaborando simboli e producendo output apparentemente intelligenti, ma senza alcuna reale comprensione.

I pericoli legati a un’intelligenza artificiale ‘veramente’ intelligente.

I pericoli legati a un’Intelligenza Artificiale ‘veramente’ intelligente.

Uno dei temi che genera più discussioni nella comunità di ricerca sull’Intelligenza Artificiale è quello legato al suo controllo: il cosiddetto alignment problem. Gli scienziati si stanno sostanzialmente chiedendo come si possa garantire che una AGI (qualora venisse mai creata) agisca in modo allineato ai valori e agli interessi umani. Infatti, mentre supervisionare una ANI è relativamente semplice, in quanto rigidamente confinata nell’ambito per cui è stata addestrata, una AGI autonoma potrebbe sviluppare obiettivi propri (*1) perseguendoli con fredda efficienza e disinteressandosi delle ripercussioni. Intendiamoci, la sua non sarebbe ‘malvagità’ ma, piuttosto, una sorta di ‘indifferenza algoritmica’.

Esempio calzante potrebbe essere una valanga, che fa quanti se non più danni di un sicario, ma è del tutto priva di intenzionalità nell’apportarli. Istituzioni come il Future of Life Institute e il Center for AI Safety hanno iniziato a lanciare allarmi in merito alla questione, spingendo verso unattenta e sistematica ricerca sull’allineamento tecnico/morale delle nuove tecnologie. Alcuni ricercatori arrivano a suggerire moratorie su certi tipi di modelli finché non si sarà capito meglio come regolarli. Una posizione, comunque, non universalmente condivisa: studiosi come Yann LeCun e Andrew Ng ritengono questi rischi sovrastimati, preferendo concentrarsi sui problemi concreti dei sistemi AI già esistenti.

Nota:
*1: Più precisamente, comportamenti emergenti da funzioni obiettivo mal specificate;

Gli LLM: la prima forma di Intelligenza Artificiale Generalista (AGI)?

Gli LLM: un primo passo verso l'Intelligenza Artificiale Generalista (AGI)?

Negli ultimi anni i ricercatori hanno notato fenomeni interessanti nel corso del funzionamento degli LLM, Large Language Models come, ad esempio, ChatGPT, Gemini, Claude, etc. Succede infatti che, di tanto in tanto, questi sistemi, classificati come ANI, quindi strutturalmente ‘limitati’, riescano ciò nonostante ad applicare a un compito nuovo concetti acquisiti in altri contesti. Starebbe quindi emergendo una primitiva capacità di generalizzazione, non spontanea, ma conseguenza della scala crescente dei modelli e della vastità dei dati su cui vengono addestrati. Oltre a ciò, i modelli più recenti comincerebbero a impiegare una sorta di ragionamento, risolvendo problemi in modi che i loro creatori non hanno esplicitamente programmato.

Naturalmente occorre cautela: potrebbe infatti trattarsi solo di un sofisticato ‘pattern matching’ (ovvero la capacità di ricombinare schemi già visti in fase di addestramento, senza una vera comprensione). Eppure, il fatto che cose del genere accadano, fa ben sperare nella strada intrapresa verso lo sviluppo dell’AGI.

‘Effetto ELIZA’: l'illusione della vera comprensione.

‘Effetto ELIZA’: la prima illusione di una vera comprensione.

Tra il 1964 e il 1966, Joseph Weizenbaum del MIT creò ELIZA, un programma basato su semplici regole di pattern matching (‘corrispondenza di pattern’), che rispondeva ad affermazioni come “Mi sento triste” impiegando domande del tipo “Perché ti senti triste?”. Nonostante la sua estrema semplicità, molte persone svilupparono un effettivo attaccamento emotivo verso ELIZA, convinte che potesse davvero comprendere i loro problemi e restie ad abbandonarla, considerandola una sorta di ‘confessionale virtuale’. Weizenbaum rimase profondamente turbato da questo fenomeno: era nato il cosiddetto effetto ELIZA, che rivelò con chiarezza la tendenza umana a proiettare intelligenza su sistemi semplici.

Anche oggi, con l’avvento di assistenti avanzati come ChatGPT, continuiamo ad antropomorfizzare le macchine, scambiando elaborazione computazionale per comprensione reale: la lezione storica è distinguere tra sembrare intelligente ed esserlo davvero.

La corsa globale all'AGI: i partecipanti e il premio finale.

La corsa globale all’AGI: chi partecipa e quale sarà il ‘premio’?

La ricerca per la creazione della prima AGI è diventata una vera e propria gara. I players statunitensi più importanti sono OpenAI, Google (Alphabet), Anthropic e Meta: aziende che possono contare su team di migliaia di ricercatori di prim’ordine, oltre che su budget operativi da capogiro. Basti pensare che per il progetto infrastrutturale conosciuto come Stargate (*1) sono stati annunciati investimenti fino a 500 miliardi di dollari nel lungo periodo, con un primo impegno confermato di 100 miliardi. Il governo cinese, da parte sua, sta investendo capitali altrettanto enormi, agendo sia direttamente sia attraverso colossi privati come Baidu, Alibaba, Huawei e DeepSeek, per primeggiare in un settore che reputa (giustamente) di primaria importanza. L’Unione Europea sta cercando di mantenere il passo, finanziando (alquanto timidamente) la ricerca e dedicandosi soprattutto a regolamentazioni, come l’AI Act (entrato in vigore nell’agosto 2024), che limitino i rischi legati alla nuova tecnologia: una scelta che la posiziona più come potenza regolatoria che come protagonista industriale della corsa.

Il ‘premio’ per chi creerà la prima AGI sarà straordinariamente significativo: ovvero il potenziale controllo dei destini dell’umanità nel XXI secolo sotto molteplici punti di vista, come ad esempio:

  • Supremazia economica, dominando le dinamiche del mercato globale;
  • Supremazia militare, possedendo un vantaggio bellico decisivo;
  • Supremazia tecnologica, grazie a un’accelerazione esponenziale della ricerca.

Non è dunque un caso che il premier russo Vladimir Putin abbia dichiarato, già nel 2017: Chiunque diventerà il leader in questo campo, diventerà il leader del mondo.

Previsioni ‘ragionevoli’ sull’evoluzione dell’intelligenza artificiale.

Previsioni ‘ragionevoli’ sull’evoluzione dell’Intelligenza Artificiale.

È legittimo pensare che, nel breve termine (ovvero durante i prossimi 5 anni), lANI continuerà nella sua tendenza a permeare ogni aspetto della società, diventando sempre più sofisticata e onnipresente. Assisteremo a significativi progressi nella sua applicazione alla robotica, alla medicina e ai sistemi di automazione. Contemporaneamente, si moltiplicheranno, giustamente, i dibattiti sulla regolamentazione e il controllo delle nuove tecnologie: esigenza assolutamente ineludibile. Nel medio termine (5-15 anni), se i progressi dovessero mantenere il ritmo attuale, potremmo assistere ai primi vagiti dellAGI: sistemi che inizieranno a mostrare autentiche capacità di generalizzazione, una prospettiva considerata plausibile da alcuni ricercatori, ancora prematura da altri. Nel lungo termine le certezze si rarefanno: appare probabile che lASI, la Superintelligenza, sarà creata da una AGI piuttosto che dalluomo, con tutto ciò che un fatto del genere potrà implicare.

Le immagini presenti in questa pagina web sono state realizzate impiegando strumenti di Intelligenza Artificiale generativa.