3 abilità essenziali che mancano all'intelligenza artificiale

  • Tempo di lettura: 8 minuti

Nell’ultimo decennio, l’apprendimento profondo ha fatto molta strada, passando da un promettente campo di ricerca sull’intelligenza artificiale (AI) a un pilastro di molte applicazioni. Tuttavia, nonostante i progressi del deep learning, alcuni problemi non sono scomparsi. Tra questi vi sono tre abilità essenziali: Comprendere i concetti, formare astrazioni e tracciare analogie - questo secondo Melanie Mitchell, docente del Santa Fe Institute e autrice di “Artificial Intelligence: A Guide for Thinking Humans”.

Durante un recente seminario presso l’Institute of Advanced Research in Artificial Intelligence, Mitchell ha spiegato perché l’astrazione e l’analogia sono le chiavi per creare sistemi di intelligenza artificiale robusti. Sebbene il concetto di astrazione sia presente sin da quando il termine “intelligenza artificiale” è stato coniato nel 1955, quest’area è rimasta in gran parte poco studiata, afferma Mitchell.

Mentre la comunità dell’intelligenza artificiale si concentra sempre di più sugli approcci basati sull’apprendimento profondo, Mitchell avverte che ciò che sembra essere una prestazione simile a quella umana da parte delle reti neurali è, in realtà, un’imitazione superficiale che manca i componenti chiave dell’intelligenza.

“Ci sono molte definizioni diverse di ‘concetto’ nella letteratura delle scienze cognitive, ma a me piace particolarmente quella di Lawrence Barsalou: Un concetto è ‘una competenza o una disposizione a generare infinite concettualizzazioni di una categoria’”, ha dichiarato Mitchell a VentureBeat.

Per esempio, quando pensiamo a una categoria come “alberi”, possiamo evocare tutti i tipi di alberi diversi, sia reali che immaginari, realistici o cartooneschi, concreti o metaforici. Possiamo pensare ad alberi naturali, alberi familiari o alberi organizzativi.

“C’è una somiglianza essenziale - chiamiamola ‘treeness’ - tra tutti questi concetti”, ha detto Mitchell. “In sostanza, un concetto è un modello mentale generativo che fa parte di una vasta rete di altri concetti”.

Mentre gli scienziati e i ricercatori di IA si riferiscono spesso alle reti neurali come concetti di apprendimento, la differenza chiave che Mitchell sottolinea è ciò che queste architetture computazionali apprendono. Mentre gli esseri umani creano modelli “generativi” in grado di formare astrazioni e di utilizzarle in modi nuovi, i sistemi di apprendimento profondo sono modelli “discriminativi” in grado di apprendere solo differenze superficiali tra categorie diverse.

Per esempio, un modello di deep learning addestrato su molte immagini etichettate di ponti sarà in grado di individuare nuovi ponti, ma non sarà in grado di osservare altri elementi basati sullo stesso concetto, come un tronco che collega due sponde di un fiume o le formiche che formano un ponte per colmare un vuoto, o nozioni astratte di “ponte”, come colmare un divario sociale.

I modelli discriminativi hanno categorie predefinite tra cui il sistema può scegliere, ad esempio: la foto è di un cane, di un gatto o di un coyote? Mitchell ha spiegato che non si tratta di applicare in modo flessibile le proprie conoscenze a una nuova situazione.

“È necessario generare un’analogia: ad esempio, se so qualcosa sugli alberi e vedo un’immagine di un polmone umano, con tutta la sua struttura ramificata, non lo classifico come un albero, ma riconosco le somiglianze a un livello astratto - prendo ciò che so e lo mappo su una nuova situazione”, ha detto.

Perché è importante? Il mondo reale è pieno di situazioni nuove. È importante imparare dal minor numero possibile di esempi ed essere in grado di trovare connessioni tra le vecchie osservazioni e quelle nuove. Senza la capacità di creare astrazioni e di trarre analogie - il modello generativo - avremmo bisogno di vedere infiniti esempi di addestramento per essere in grado di gestire ogni possibile situazione.

Questo è uno dei problemi di cui soffrono attualmente le reti neurali profonde. I sistemi di apprendimento profondo sono estremamente sensibili alle osservazioni “fuori distribuzione” (OOD), istanze di una categoria diverse dagli esempi che il modello ha visto durante l’addestramento. Ad esempio, una rete neurale convoluzionale addestrata sul dataset ImageNet subirà un notevole calo di prestazioni quando si troverà di fronte a immagini del mondo reale in cui l’illuminazione o l’angolazione degli oggetti è diversa da quella del set di addestramento.

Allo stesso modo, un sistema di apprendimento profondo per rinforzo addestrato a giocare a Breakout a un livello sovrumano si deteriora improvvisamente quando viene apportata una semplice modifica al gioco, come lo spostamento della racchetta di pochi pixel in alto o in basso.

In altri casi, i modelli di deep learning imparano le caratteristiche sbagliate negli esempi di addestramento. In uno studio, Mitchell e i suoi colleghi hanno esaminato una rete neurale addestrata a classificare le immagini tra “animale” e “nessun animale”. Hanno scoperto che invece degli animali, il modello aveva imparato a rilevare le immagini con sfondi sfocati: nel set di dati di addestramento, le immagini di animali erano focalizzate sugli animali e avevano sfondi sfocati, mentre le immagini senza animali non avevano parti sfocate.

“Più in generale, è più facile ‘imbrogliare’ con un modello discriminativo che con un modello generativo - un po' come la differenza tra rispondere a una domanda a scelta multipla e a una domanda a tema”, ha detto Mitchell. “Se si sceglie semplicemente tra una serie di alternative, si può essere in grado di ottenere buoni risultati anche senza capire veramente la risposta; è più difficile se si deve generare una risposta”.

La comunità dell’apprendimento profondo ha fatto passi da gigante per affrontare alcuni di questi problemi. Ad esempio, l'“IA spiegabile” è diventata un campo di ricerca per lo sviluppo di tecniche per determinare le caratteristiche che le reti neurali stanno apprendendo e come prendono le decisioni.

Allo stesso tempo, i ricercatori stanno lavorando alla creazione di set di dati di addestramento equilibrati e diversificati per garantire che i sistemi di apprendimento profondo rimangano robusti in situazioni diverse. Il campo dell’apprendimento non supervisionato e auto-supervisionato mira ad aiutare le reti neurali ad apprendere da dati non etichettati, invece di richiedere categorie predefinite.

Un campo che ha visto notevoli progressi è quello dei modelli linguistici di grandi dimensioni (LLM), reti neurali addestrate su centinaia di gigabyte di dati testuali non etichettati. Gli LLM sono spesso in grado di generare testi e di impegnarsi in conversazioni in modi coerenti e molto convincenti, e alcuni scienziati sostengono che siano in grado di comprendere i concetti.

Tuttavia, Mitchell sostiene che se definiamo i concetti in termini di astrazioni e analogie, non è chiaro se i LLM stiano davvero imparando i concetti. Per esempio, gli esseri umani capiscono che il concetto di “più” è una funzione che combina due valori numerici in un certo modo, e possiamo usarlo in modo molto generico. D’altra parte, modelli linguistici di grandi dimensioni come GPT-3 possono rispondere correttamente a semplici problemi di addizione per la maggior parte del tempo, ma a volte commettono “errori non umani” a seconda di come viene posto il problema.

“Questa è la prova che [gli LLM] non hanno un concetto robusto di ‘più’ come noi, ma usano qualche altro meccanismo per rispondere ai problemi”, ha detto Mitchell. “In generale, non credo che sappiamo come determinare se un LLM ha un concetto robusto simile a quello umano - questa è una domanda importante”.

Recentemente, gli scienziati hanno creato diversi benchmark che cercano di valutare la capacità dei sistemi di apprendimento profondo di formare astrazioni e analogie. Un esempio è RAVEN, un insieme di problemi che valutano la capacità di individuare concetti come numerosità, somiglianza, differenza di dimensioni e di posizione.

Tuttavia, gli esperimenti dimostrano che i sistemi di apprendimento profondo possono imbrogliare questi benchmark. Quando Mitchell e i suoi colleghi hanno esaminato un sistema di apprendimento profondo che aveva ottenuto un punteggio molto alto in RAVEN, si sono resi conto che la rete neurale aveva trovato delle “scorciatoie” che le permettevano di prevedere la risposta corretta senza nemmeno vedere il problema.

“I benchmark di IA esistenti in generale (compresi quelli per l’astrazione e l’analogia) non fanno un lavoro sufficientemente buono nel testare l’effettiva comprensione da parte delle macchine, piuttosto che l’uso di scorciatoie che si basano su correlazioni statistiche spurie”, ha detto Mitchell. “Inoltre, i benchmark esistenti utilizzano in genere una suddivisione casuale ‘training/test’, anziché verificare sistematicamente se un sistema è in grado di generalizzare bene”.

Un altro benchmark è l’Abstract Reasoning Corpus (ARC), creato dal ricercatore di IA François Chollet. ARC è particolarmente interessante perché contiene un numero molto limitato di esempi di addestramento e il set di test è composto da sfide diverse da quelle dell’addestramento. ARC è diventato oggetto di un concorso sulla piattaforma di scienza dei dati e apprendimento automatico Kaggle. Finora, però, i progressi sul benchmark sono stati molto limitati.

“Mi piace molto il benchmark ARC di Francois Chollet come modo per affrontare alcuni dei problemi/limitazioni degli attuali benchmark di IA e AI”, ha detto Mitchell.

L’autrice ha osservato che vede un lavoro promettente nell’intersezione tra l’IA e l’apprendimento evolutivo, ovvero “guardare al modo in cui i bambini imparano e come questo possa ispirare nuovi approcci all’IA”.

Quale sarà l’architettura giusta per creare sistemi di intelligenza artificiale in grado di formare astrazioni e analogie come gli esseri umani rimane una questione aperta. I pionieri dell’apprendimento profondo ritengono che reti neurali più grandi e migliori saranno in grado di replicare tutte le funzioni dell’intelligenza umana. Altri scienziati ritengono che sia necessario combinare l’apprendimento profondo con l’IA simbolica.

Ciò che è certo è che, man mano che l’IA diventa sempre più diffusa nelle applicazioni che utilizziamo quotidianamente, sarà importante creare sistemi robusti che siano compatibili con l’intelligenza umana e che funzionino - e falliscano - in modi prevedibili.

La missione di VentureBeat è quella di essere una piazza digitale per i responsabili delle decisioni tecniche, per acquisire conoscenze sulle tecnologie aziendali di trasformazione e per interagire. Scoprite i nostri Briefing.

Ciao, sono Michele!

Sono molto felice di saperti qui.
Ogni giorno ti raccontiamo qualcosa di nuovo sull'AI e sulle nuove tecnologie. Seguici sui social o iscriviti alla newsletter!

Iscriviti alla newsletter!

Iscrivendoti accetti la nostra Privacy Policy

Ti va di rimanere aggiornatə?

Niente spam, niente pubblicità. Ogni tanto una mail. Tutto qui.
(Ah, ovviamente i tuoi dati non verranno mai ceduti)

Iscrivendoti accetti la nostra Privacy Policy