L’intelligenza artificiale nella ricerca scientifica: amica o nemica?

//

Alexandre Rossi


L’intelligenza artificiale ha completato la transizione da parola d’ordine dei film di fantascienza a elemento della vita quotidiana. Ora è possibile trovare una scheda ChatGPT aperta sul browser di ogni studente universitario stressato. La proliferazione della tecnologia dell’intelligenza artificiale si è inevitabilmente fatta strada anche nella ricerca scientifica, presentando grandi opportunità per l’avanzamento della nostra comprensione del mondo, ma anche una serie di complesse sfide etiche.

Secondo l’analisi del database Scopus, la percentuale di articoli pubblicati in documenti di ricerca che citano l’intelligenza artificiale è aumentata dal 2% circa nel 2013 all’8% appena dieci anni dopo. Gli algoritmi artificialmente intelligenti vengono utilizzati in un’ampia gamma di contesti scientifici; ad esempio, l’intelligenza artificiale viene ampiamente implementata nella biologia molecolare per risolvere il problema del ripiegamento delle proteine, consentendoci di comprendere la struttura delle 300 milioni di proteine ​​conosciute semplicemente da una breve sezione del codice genetico. Se si trovasse una soluzione, rappresenterebbe uno dei più grandi progressi moderni nella conoscenza scientifica, portando a progressi illimitati nella cura e nel trattamento delle malattie, nella produzione di nuovi biomateriali e nella prevenzione di future pandemie.

Programmi come AlphaFold, creato dalla società madre di Google, utilizzano tecniche di apprendimento automatico per fare previsioni più accurate sulla forma delle diverse proteine. AlphaFold si addestra su un database pubblico di circa 100.000 proteine, confrontando le sequenze di aminoacidi determinate dal codice genetico con le strutture conosciute delle proteine. Un articolo del 2021 pubblicato in Natura suggerì che le previsioni fossero estremamente accurate fino alla scala di un singolo atomo di carbonio: da allora l’articolo è diventato uno dei più citati di tutti i tempi. Il modello AlphaFold è già stato utilizzato per sviluppare farmaci, trovare enzimi per abbattere la plastica inquinante e persino produrre vaccini contro malattie precedentemente sfuggenti come la malaria.

“Chiaramente, l’intelligenza artificiale ha il potenziale per trasformare la ricerca scientifica e trovare soluzioni a problemi computazionali antichi e altamente complessi”

Inoltre, nel 2020 Exscientia ha prodotto il primo farmaco scoperto dall’intelligenza artificiale ad entrare in una sperimentazione clinica, mirato al trattamento dei sintomi del disturbo ossessivo compulsivo. Il loro programma ha effettuato ricerche in librerie chimiche estremamente grandi a un ritmo record per identificare molecole che potrebbero potenzialmente colpire i recettori giusti per curare il disturbo. In genere, lo sviluppo di farmaci da parte di scienziati clinici è un processo che richiede molti anni per essere completato. Di solito c’è un intervallo di circa cinque anni dallo screening iniziale delle molecole all’inizio degli studi clinici. Tuttavia, per il farmaco di Exscientia, questa fase è stata completata in meno di un anno.

Chiaramente, l’intelligenza artificiale ha il potenziale per trasformare la ricerca scientifica e trovare soluzioni a problemi computazionali antichi e altamente complessi molto più velocemente di quanto potrebbe mai fare un computer umano o normale. Tuttavia, credo che dobbiamo essere cauti su quanto ampiamente viene utilizzata l’intelligenza artificiale nella ricerca e su quanto ci fidiamo dei contenuti generati da tali programmi.

Gli attuali modelli di intelligenza artificiale vengono addestrati su insiemi di dati già esistenti, mai lontani dall’influenza umana. Sebbene grandi insiemi di numeri possano sembrare oggettivi, sono sempre presenti errori nella raccolta, elaborazione e rendicontazione dei dati. Ad esempio, è noto da tempo che i dati degli studi clinici rappresentano in modo eccessivo i pazienti bianchi. Sappiamo che alcune condizioni che influenzano la nostra reazione ai farmaci, come il diabete e l’anemia falciforme, variano in prevalenza tra gruppi di popolazione di diversa discendenza. Pertanto, un algoritmo addestrato su questi dati assorbirà questa sovrarappresentazione e potrebbe suggerire farmaci che hanno effetti diversi su persone provenienti da minoranze etniche, un esempio scioccante di pregiudizio algoritmico. Ciò solleva domande difficili sull’etica dell’uso dell’intelligenza artificiale nella ricerca. Un algoritmo informatico dovrebbe essere soggetto all’Equality Act e tenuto agli stessi standard legali degli esseri umani? E se ritenuto inadempiente, chi ne è responsabile?

“Gli algoritmi non capiscono cosa rappresentano i dati nello stesso modo in cui lo fa un ricercatore umano”

Questo problema è venuto alla ribalta di recente, con la polizia metropolitana che ha annunciato che utilizzerà la tecnologia di riconoscimento facciale nelle strade di Londra per identificare i sospetti criminali. Tuttavia, secondo quanto riferito, l’algoritmo utilizzato è stato addestrato utilizzando prevalentemente volti bianchi e uno studio dell’Università dell’Essex ha rilevato che era accurato solo nel 19% dei casi, rispetto alla cifra dichiarata dal Met del 70%.

Una soluzione suggerita per questi problemi è stata un rigoroso processo di controllo per i modelli di machine learning, che prevedeva test diretti dei modelli rispetto a dati noti per rilevare pregiudizi contro determinati gruppi. Si potrebbe anche chiedere agli sviluppatori di produrre una dichiarazione sull’impatto dei pregiudizi, delineando quali gruppi potrebbero essere colpiti e in che modo verrebbero rilevati i pregiudizi nei loro confronti. Ciò sarebbe tuttavia difficile da applicare: dimostrare che un modello è distorto nei confronti di un particolare gruppo è difficile quando c’è un numero quasi infinito di fattori confondenti di cui tenere conto.

Inoltre, gli algoritmi di apprendimento automatico si basano sulla ricerca di modelli nei set di dati su cui sono stati addestrati e sull’estrapolazione di tali modelli su nuovi dati. Gli algoritmi non capiscono cosa rappresentano i dati nello stesso modo in cui lo fa un ricercatore umano. Pertanto questi algoritmi non sono in grado di distinguere tra modelli dovuti al rumore nei dati e tendenze effettive nei dati, generando potenzialmente previsioni errate.

Nel complesso, il crescente utilizzo dell’IA può essere positivo per la ricerca scientifica. Ha il potenziale per rilanciare la ricerca su domande senza risposta dove non sono stati fatti progressi da anni, stimolando una rivoluzione scientifica moderna. Tuttavia, la ricerca prodotta da modelli artificialmente intelligenti dovrebbe essere trattata con le pinze. È chiaro che possono rafforzare i pregiudizi umani esistenti sotto una patina di obiettività: è necessario un controllo rigoroso delle informazioni utilizzate per addestrare l’apprendimento automatico e la propagazione dell’intelligenza artificiale nella ricerca dovrebbe essere controllata fino a quando non sarà messa in atto una regolamentazione adeguata.