Ripensare alla ricerca alla luce dell’intelligenza artificiale generativa


La Scienza e la sua integrità stanno vivendo una crisi crescente. Il mondo delle pubblicazioni scientifiche è sconvolto nell’assistere a fatti gravi che sono accaduti negli ultimi anni e che possono mettere in crisi la fiducia del pubblico nei risultati della ricerca: numerosi casi di ritrattazione di articoli pubblicati, revisioni di esperti che precedono e autorizzano la pubblicazione (peer rewiew) manipolate, compagnie che offrono, in cambio di denaro, l’inserimento del nome di un ricercatore come co-autore di un articolo che sta per essere pubblicato su una rivista quotata, senza che questo vi abbia minimamente contribuito… Nello stesso periodo di tempo, ci sono stati enormi avanzamenti nello sviluppo dell’Intelligenza Artificiale generativa (IAg), un tipo di IA in grado di generare testo, immagini, video, musica o altri media in risposta a delle richieste dette prompt (Wikipedia). Che cosa può succedere quando le due cose vengono a confronto?

Potrebbero accadere cambiamenti fondamentali: i pericoli insisti nella produzione in ogni campo scientifico, da parte dell’IAg, di articoli non facilmente identificabili, sono stati sottolineati nella 8a Conferenza Mondiale sull’Integrità della Ricerca (Atene, 2-5 giugno 2024). Un allarme è stato lanciato sul fatto che i modelli di IA possono ancora generare inesattezze e fraintendimenti nei testi, nelle formule e analisi dei dati, arrivare a conclusioni forzatamente semplificate, perpetuare tendenze sbilanciate (bias) e stereotipi.  È fuori di dubbio che l’IA offra promesse enormi, particolarmente nell’aiutare gli esseri umani a meglio pianificare, fare e pubblicare le ricerche. Grandi modelli di linguaggio, quale ChatGPT, possono revisionare e riassumere una vastissima quantità di informazioni – sebbene non ancora con l’approccio critico e l’originalità di pensiero di un umano. La capacità di correggere il linguaggio e la grammatica può aiutare a spianare le difficoltà per i ricercatori, specialmente quelli che non sono di lingua madre inglese. L’IA può essere usata per identificare nuovi target per i farmaci e può facilitare il reclutamento dei partecipanti ai trial clinici scegliendo i soggetti adatti, con potenziale miglioramento della rappresentazione di gruppi generalmente marginalizzati, quali soggetti con malattie rare, donne in gravidanza, persone di età più avanzata.

Il rischio aumenta però se l’IA sostituisce la responsabilità umana. Perciò, riviste quali “The Lancet”, chiedono agli autori di tutti gli articoli inviati per la eventuale pubblicazione, se hanno adoperato l’IA e, in caso affermativo, una dichiarazione esaustiva in proposito. Linee guida sull’uso responsabile dell’IA nella ricerca, sottolineano l’importanza della supervisione e responsabilità umana personale, come pure della trasparenza, verifica dei risultati e sorveglianza critica alla luce dell’etica e dell’equità. Come tanti aspetti della ricerca scientifica, questi approcci si basano essenzialmente sulla fiducia. Tuttavia, l’IA avanza più in fretta degli sviluppi nel controllo. Inoltre, lo sviluppo di sistemi di IA da parte di compagnie che detengono tutte le informazioni su come i modelli sono stati elaborati, rende difficile la valutazione dei risultati. Anche i diritti di proprietà intellettuale e di copyright sono un problema: per questo, molte riviste non permettono ai revisori di usare modelli di IA disponibili pubblicamente.

In questo scenario così rapidamente mutevole, l’educazione di molti scienziati rimane seriamente indietro. I ricercatori devono assolutamente capire i limiti e le potenziali falle dell’IAg, come la possibile esistenza, nell’applicazione, di “allucinazioni”, cioè la produzione di risultati falsi ma apparentemente plausibili. Un problema fondamentale è che l’IAg spinge la produzione di un numero molto maggiore di lavori di dubbio valore, dando una mano a perpetuare un sistema accademico sbagliato, che dà più importanza alla quantità che alla qualità. Questo sistema chiuso e omologato, nel quale l’IA aiuta la pubblicazione di materiale sempre più mediocre, che però va ad alimentare ulteriormente il database a disposizione dell’IA stessa, rischia di condurre a una diminuzione di utilità della ricerca, ostacolando di fatto il progresso scientifico.

In ogni caso, il significato dell’essere uno scienziato non cambierà. La ricerca è qualcosa di più del portare avanti una serie di compiti con la massima efficienza possibile. È un impegno culturale e una pratica sociale. Il buonsenso, l’empatia, l’intuizione, l’esperienza, una vita spesa nell’apprendimento, il pensiero critico e la creatività caratterizzano gli Umani. I ricercatori crescono attraverso lo scambio di idee e la riflessione collettiva. La ricerca mette insieme individui con diverse esperienze e provenienti da ambienti diversi, stimola il dibattito critico e promuove gli scambi diplomatici e forma la base dell’azione politica e di sostegno. È un’arena di confronto per le conquiste umane che va ben oltre alle capacità impressionanti, ma ancora essenzialmente riduttive, dell’intelligenza artificiale.

La IAg non è di per sé né buona né cattiva. È chiaramente qui per rimanerci, e indiscutibilmente offre nuove opportunità mentre aumenta nuove sfide per la ricerca. Se usata con giudizio, essa potrebbe aiutare a sbarazzarsi della estenuante burocrazia, liberando più tempo per il pensiero creativo e i rapporti sociali. Tuttavia, l’IA è un’invenzione umana e i suoi effetti rifletteranno sempre i sistemi e gli ambienti nei quali è impiegata. I ricercatori lavorano già in un campo enormemente competitivo, con pressioni del tipo: pubblicare o morire, con incentivi a manipolare o smussare gli angoli, e delle tendenze pilotate (bias) profondamente presenti in molta parte del loro lavoro. L’IA non crea questi problemi da zero, ma può amplificarli e accelerarli. Per difendersi contro i rischi dell’intelligenza artificiale generativa per la ricerca, un buon punto di partenza è fare finalmente i conti con il come i ricercatori sono selezionati, retribuiti e valutati.

 Rethinking research and generative artificial intelligence. The Lancet, July 6, 2024 https://doi.org/10.1016/S0140-6736(24)01394-1