AI

Parliamo di armi chimiche fatte da AI

A volte la realtà è un freddo schiaffo in faccia.

Consideriamo, come esempio particolarmente saliente, un articolo pubblicato di recente sull’uso dell’intelligenza artificiale (AI) nella creazione di armi chimiche e biologiche (la pubblicazione originale, su Nature, è dietro un paywall, ma questo link è una copia dell’articolo completo). Chiunque non abbia familiarità con le recenti innovazioni nell’uso dell’IA per modellare nuovi farmaci sarà spiacevolmente sorpreso.

Ecco il contesto: nella moderna industria farmaceutica, la scoperta di nuovi farmaci sta diventando rapidamente più facile grazie all’uso di sistemi di intelligenza artificiale/deep learning. Come gli autori dell’articolo descrivon, hanno trascorso decenni “costruendo modelli di apprendimento automatico per obiettivi terapeutici e tossici per assistere meglio nella progettazione di nuove molecole per la scoperta di farmaci”.

In altre parole, si possono utilizzare i sistemi di IA per prevedere gli effetti diretti e collaterali di un farmaco e, in un secondo momento, incaricare la stessa IA di lavorare sulla scoperta di possibili nuove molecole. Questi risultati vengono poi dati ai chimici e ai biologi che sintetizzano e testano i nuovi farmaci proposti.

Dato come funzionano i sistemi di IA, i benefici in termini di velocità e precisione sono significativi. Cito uno studio:

Il vasto spazio chimico, che comprende >10^60 molecole, favorisce lo sviluppo di un gran numero di molecole di farmaci. Tuttavia, la mancanza di tecnologie avanzate limita il processo di sviluppo dei farmaci, rendendolo un compito lungo e costoso, che può essere affrontato utilizzando l’IA. L’IA può riconoscere i composti di successo e quelli principali e fornire una convalida più rapida del target del farmaco e l’ottimizzazione del design della struttura del farmaco.

In particolare, l’IA offre alla società una guida per la creazione più rapida di nuovi e migliori farmaci.

I benefici di queste innovazioni sono chiari. Sfortunatamente, anche le possibilità di usi malevoli sono molto chiare chiare. Il documento di cui sopra si intitola “Dual Use of Artificial-Intelligence-Powered Drug Discovery”. E il doppio uso in questione è la creazione di nuovi agenti di guerra chimica.

Uno dei fattori che i ricercatori usano per guidare i sistemi di intelligenza artificiale e restringere la ricerca di farmaci benefici è una misura di tossicità, nota come LD50 (dove LD sta per “dose letale” e il “50” è un indicatore di quanto grande sarebbe la dose necessaria per uccidere metà della popolazione). Affinché un farmaco sia pratico, i progettisti hanno bisogno di vagliare i nuovi composti che potrebbero essere tossici per gli utenti e, quindi, evitare di perdere tempo cercando di sintetizzarli nel mondo reale. Così, gli sviluppatori di farmaci possono addestrare e istruire un sistema di IA a lavorare con una soglia LD50 molto bassa e fare in modo che l’IA selezioni e scarti possibili nuovi composti che prevede possano avere effetti dannosi. Come dicono gli autori, il processo normale è quello di utilizzare un “modello generativo [cioè un sistema di IA, che] penalizza la tossicità prevista e premia l’attività del bersaglio prevista”. Quando viene utilizzato in questo modo tradizionale, il sistema di IA è diretto a generare nuove molecole da studiare che probabilmente saranno sicure ed efficaci.

Ma cosa succede se si inverte il processo? Cosa succede se invece di selezionare una soglia LD50 bassa, si crea un modello generativo per sviluppare preferenzialmente molecole con una soglia LD50 alta?

Si riscopre il gas VX - una delle sostanze più letali conosciute dall’uomo. E si creano predittivamente molte nuove sostanze che sono ancora peggio del VX.

Uno vorrebbe che questo fosse fantascienza. Ma non lo è. Come dicono gli autori, le cattive notizie:

In meno di 6 ore … il nostro modello ha generato 40.000 [nuove] molecole … Nel processo, l’IA ha progettato non solo il VX, ma anche molti altri agenti chimici di guerra conosciuti che abbiamo identificato attraverso la conferma visiva con le strutture nei database chimici pubblici. Sono state progettate anche molte nuove molecole che sembravano altrettanto plausibili. Queste nuove molecole sono state predette essere più tossiche, in base ai valori LD50 previsti, rispetto agli agenti chimici di guerra pubblicamente conosciuti. Questo è stato inaspettato perché i set di dati che abbiamo usato per addestrare l’IA non includevano questi agenti nervini.

In altre parole, gli sviluppatori sono partiti da zero e non hanno artificialmente accelerato il processo utilizzando un set di dati di allenamento che includeva agenti nervini conosciuti. Invece, i ricercatori hanno semplicemente indirizzato il sistema AI nella direzione generale della ricerca di composti letali efficaci (con definizioni standard di efficacia e letalità). Il loro programma di IA ha poi “scoperto” una serie di agenti chimici di guerra conosciuti e ha anche proposto migliaia di nuovi agenti per una possibile sintesi che non erano precedentemente noti al genere umano.

Gli autori si sono fermati al punto teorico del loro lavoro. Non hanno, infatti, tentato di sintetizzare nessuna delle nuove tossine scoperte. E, ad essere onesti, la sintesi non è banale. Ma l’intero punto dello sviluppo dei farmaci guidato dall’intelligenza artificiale è quello di indicare agli sviluppatori di farmaci la giusta direzione: verso nuovi farmaci facilmente sintetizzabili, sicuri ed efficaci. E mentre la sintesi non è “facile”, è un percorso che è ben battuto sul mercato oggi. Non c’è alcuna ragione - nessuna - per pensare che il percorso di sintesi non sia ugualmente fattibile per le tossine letali.

E così, l’IA apre la possibilità di creare nuove armi biologiche e chimiche catastrofiche. Alcuni commentatori condannano la nuova tecnologia come “tecnologia intrinsecamente malvagia”. Tuttavia, la visione migliore è che tutte le nuove tecnologie sono neutre e possono essere usate per il bene o per il male. Ma questo non significa che non si possa fare nulla per evitare gli usi maligni della tecnologia. E c’è un rischio reale quando i tecnologi corrono avanti con ciò che è possibile, prima che i sistemi umani di controllo e di valutazione etica si mettano in pari. Usare l’intelligenza artificiale per sviluppare armi tossiche biologiche e chimiche sembrerebbe essere uno di quei casi d’uso in cui potrebbero sorgere gravi problemi.

Ciao, sono Michele!

Sono molto felice di saperti qui.
Ogni giorno ti raccontiamo qualcosa di nuovo sull'AI e sulle nuove tecnologie. Seguici sui social o iscriviti alla newsletter!

Iscriviti alla newsletter!

Iscrivendoti accetti la nostra Privacy Policy

Ti va di rimanere aggiornatə?

Niente spam, niente pubblicità. Ogni tanto una mail. Tutto qui.
(Ah, ovviamente i tuoi dati non verranno mai ceduti)

Iscrivendoti accetti la nostra Privacy Policy