Non è che l'AI sia poi questo fulmine di guerra

Dalle auto a guida autonoma ai robot danzanti negli spot pubblicitari del Super Bowl, l’intelligenza artificiale (AI) è ovunque. Il problema con tutti questi esempi di intelligenza artificiale, tuttavia, è che non sono davvero intelligenti. Piuttosto, rappresentano un’IA ristretta, un’applicazione in grado di risolvere un problema specifico utilizzando tecniche di intelligenza artificiale. Ed è molto diverso da ciò che tu ed io possediamo.

Gli esseri umani (si spera) mostrano intelligenza generale. Siamo in grado di risolvere una vasta gamma di problemi e imparare a risolvere quei problemi che non abbiamo incontrato in precedenza. Siamo in grado di imparare nuove situazioni e cose nuove. Comprendiamo che gli oggetti fisici esistono in un ambiente tridimensionale e sono soggetti a vari attributi fisici, incluso il passare del tempo. La capacità di replicare artificialmente le capacità di pensiero a livello umano, o l’intelligenza artificiale generale (AGI), semplicemente non esiste in quella che oggi pensiamo come IA.

Questo non toglie nulla al travolgente successo di cui l’IA ha goduto fino ad oggi. La Ricerca Google è un eccezionale esempio di intelligenza artificiale che la maggior parte delle persone utilizza regolarmente. Google è in grado di cercare volumi di informazioni a una velocità incredibile per fornire (di solito) i risultati desiderati dall’utente in cima alla lista.

Allo stesso modo, Google Voice Search consente agli utenti di pronunciare le richieste di ricerca. Gli utenti possono dire qualcosa che suona ambiguo e ottenere un risultato che sia correttamente scritto, maiuscolo, punteggiato e, per finire, di solito ciò che l’utente intendeva.

Come funziona così bene? Google ha i dati storici di trilioni di ricerche e quali risultati l’utente cosa. Da questo, può prevedere quali ricerche sono probabili e quali risultati renderanno utile il sistema. Ma non ci si aspetta che il sistema capisca cosa sta facendo o uno qualsiasi dei risultati che presenta.

Ciò evidenzia la necessità di un’enorme quantità di dati storici. Funziona abbastanza bene nella ricerca perché ogni interazione dell’utente può creare un elemento di dati del set di allenamento. Ma se i dati di addestramento devono essere contrassegnati manualmente, questo è un compito arduo. Inoltre, qualsiasi distorsione nel set di allenamento confluirà direttamente nel risultato. Se, ad esempio, viene sviluppato un sistema per prevedere il comportamento criminale e viene addestrato con dati storici che includono un pregiudizio razziale, anche l’applicazione risultante avrà un pregiudizio razziale.

Gli assistenti personali come Alexa o Siri seguono gli script con numerose variabili e quindi sono in grado di creare l’impressione di essere più capaci di quanto non siano in realtà. Ma come tutti gli utenti sanno, qualsiasi cosa tu dica che non è nello script produrrà risultati imprevedibili.

Come semplice esempio, puoi chiedere a un assistente personale: “Chi è Michele Laurelli?” La frase “Chi è” avvia una ricerca web sul resto variabile della frase e probabilmente produrrà un risultato pertinente. Con molti trigger e variabili di script diversi, il sistema dà l’impressione di un certo grado di intelligenza mentre esegue effettivamente la manipolazione dei simboli. A causa di questa mancanza di comprensione di fondo, solo il 5% delle persone afferma di non sentirsi mai frustrato dall’uso della ricerca vocale.

Un enorme programma come GPT3 o Watson ha capacità così impressionanti che il concetto di uno script con variabili è del tutto invisibile, consentendo loro di creare un’apparenza di comprensione. I loro programmi stanno ancora esaminando l’input, tuttavia, e fornendo risposte di output specifiche. I set di dati al centro delle risposte dell’IA (gli “script”) sono ora così grandi e variabili che spesso è difficile notare lo script sottostante, finché l’utente non esce dallo script. Come nel caso di tutti gli altri esempi di intelligenza artificiale citati, fornire loro input fuori dallo script genererà risultati imprevedibili. Nel caso di GPT-3, il training set è così ampio che l’eliminazione della distorsione si è finora dimostrata impossibile.

La linea di fondo? Il difetto fondamentale di ciò che oggi chiamiamo IA è la sua mancanza di comprensione del buon senso. Gran parte di ciò è dovuto a tre ipotesi storiche:

Il presupposto principale alla base della maggior parte dello sviluppo dell’IA negli ultimi 50 anni era che i semplici problemi di intelligence si sarebbero risolti se potessimo risolvere quelli difficili. Sfortunatamente, questo si è rivelato un falso presupposto. È stato meglio espresso come il paradosso di Moravec. Nel 1988, Hans Moravec, un eminente robotico della Carnegie Mellon University, dichiarò che è relativamente facile fare in modo che i computer mostrino prestazioni di livello adulto nei test di intelligenza o quando si gioca a dama, ma difficile o impossibile dare loro le abilità di un anno -vecchio quando si tratta di percezione e mobilità. In altre parole, spesso i problemi difficili si rivelano più semplici ei problemi apparentemente semplici si rivelano proibitivamente difficili.

Il presupposto successivo è che se si costruissero applicazioni di intelligenza artificiale abbastanza ristrette, queste si svilupperebbero insieme in un’intelligenza generale. Anche questo si è rivelato falso. Le applicazioni di intelligenza artificiale ristretta non memorizzano le loro informazioni in una forma generalizzata, quindi possono essere utilizzate da altre applicazioni di intelligenza artificiale ristretta per espandere la portata. Le applicazioni di elaborazione del linguaggio e le applicazioni di elaborazione delle immagini possono essere unite, ma non possono essere integrate nel modo in cui un bambino integra senza sforzo vista e udito.

Infine, c’è stata la sensazione generale che se potessimo costruire un sistema di apprendimento automatico abbastanza grande, con una potenza di computer sufficiente, mostrerebbe spontaneamente un’intelligenza generale. Questo rievoca i giorni dei sistemi esperti che tentavano di acquisire la conoscenza di un campo specifico. Questi sforzi hanno chiaramente dimostrato che è impossibile creare casi e dati di esempio sufficienti per superare la mancanza di comprensione sottostante. I sistemi che manipolano semplicemente i simboli possono creare un’apparenza di comprensione fino a quando una richiesta “fuori copione” non espone la limitazione.

Perché questi problemi non sono la priorità assoluta dell’industria dell’IA? In breve, segui i soldi.

Si consideri, ad esempio, l’approccio allo sviluppo delle capacità di costruzione, come l’impilamento di blocchi, per un bambino di tre anni. È del tutto possibile, ovviamente, sviluppare un’applicazione di intelligenza artificiale che impari a impilare blocchi proprio come quel bambino di tre anni. È improbabile che venga finanziato, però. Come mai? Primo, chi vorrebbe investire milioni di dollari e anni di sviluppo in un’applicazione che esegue una singola funzionalità che qualsiasi bambino di tre anni può fare, ma nient’altro, niente di più generale?

Il problema più grande, tuttavia, è che anche se qualcuno finanziasse un progetto del genere, l’IA non mostra una vera intelligenza. Non ha alcuna consapevolezza situazionale o comprensione contestuale. Inoltre, manca l’unica cosa che ogni bambino di tre anni può fare: diventare un bambino di quattro anni, e poi un bambino di cinque, e infine un bambino di 10 e un quindicenne. Le capacità innate del bambino di tre anni includono la capacità di diventare un adulto pienamente funzionante e generalmente intelligente.

Ecco perché il termine intelligenza artificiale non funziona. Semplicemente non c’è molta intelligenza in corso qui. La maggior parte di ciò che chiamiamo AI si basa su un unico algoritmo, la backpropagation. Va sotto i nomi di deep learning, machine learning, reti neurali artificiali e persino reti neurali spiking. Ed è spesso presentato come “funzionante come il tuo cervello”. Se invece pensi all’IA come a un potente metodo statistico, sarai più vicino al bersaglio.

Ciao, sono Michele!

Sono molto felice di saperti qui.
Ogni giorno ti raccontiamo qualcosa di nuovo sull'AI e sulle nuove tecnologie. Seguici sui social o iscriviti alla newsletter!

Iscriviti alla newsletter!

Iscrivendoti accetti la nostra Privacy Policy

Ti va di rimanere aggiornatə?

Niente spam, niente pubblicità. Ogni tanto una mail. Tutto qui.
(Ah, ovviamente i tuoi dati non verranno mai ceduti)

Iscrivendoti accetti la nostra Privacy Policy