Effettua una nuova ricerca
More results...
“I progressi rivoluzionari nell’intelligenza artificiale (IA) ci hanno portato a un momento di trasformazione per la scienza. L’Intelligenza Artificiale sta accelerando le scoperte scientifiche e le analisi”, e “allo stesso tempo, i suoi strumenti e processi sfidano le norme e i valori fondamentali nella conduzione della scienza, tra cui responsabilità, trasparenza, replicabilità e responsabilità umana”.
Inizia con queste parole un interessantissimo articolo pubblicato nelle pagine del PNAS – Proceedings of the National Academy of Sciences, una delle riviste scientifiche multidisciplinari più citate e complete al mondo – intitolato “Protecting scientific integrity in an age of generative AI”.
Intelligenza artificiale e responsabilità umana: la rivoluzione per la risoluzione delle nuove sfide
Integrità della scienza, esplorazione delle questioni etiche e responsabilità
Intelligenza artificiale e responsabilità umana: responsabilità e responsabilizzazione
Uno: non nascondersi mai
Due: verifica e analizza
Tre: tieni traccia di tutto
Quattro: inclusività
Cinque: monitora (anche l’ipocrisia)
Intelligenza artificiale e responsabilità umana: la rivoluzione per la risoluzione delle nuove sfide
“Con l’integrità scientifica e la responsabilità in mente”, la National Academy of Sciences ha coordinato i lavori di un panel interdisciplinare di esperti con lo scopo di esplorare le sfide emergenti poste dall’uso dell’IA generativa e di tracciare un percorso per il futuro della comunità scientifica, il cui “potere di interagire con gli scienziati in modo naturale, di eseguire tipi di risoluzione dei problemi senza precedenti e di generare nuove idee e contenuti pone sfide ai valori di lunga data e all’integrità degli sforzi scientifici”.
Sfide complesse che rendono più difficile per gli scienziati, la più ampia comunità di ricerca e il pubblico non solo comprendere (e confermare) la veridicità dei contenuti, delle revisioni e delle analisi generate, ma anche garantire la trasparenza lungo tutta la filiera, dalla generazione dei prompt all’analisi dei risultati.
Integrità della scienza, esplorazione delle questioni etiche e responsabilità
Per questi motivi, e per “proteggere l’integrità della scienza”, gli autori dell’articolo:
- invitano la comunità scientifica a “rimanere salda nel rispettare le norme e i valori guida della scienza”;
- sostengono le raccomandazioni di un recente rapporto delle National Academies che esplora questioni etiche nella ricerca informatica e promuove pratiche responsabili attraverso l’educazione e la formazione;
- riaffermano le conclusioni contenute nello stesso report, sui “flussi di lavoro di ricerca automatizzati responsabili”, che hanno richiesto “la revisione umana degli algoritmi, la necessità di trasparenza e riproducibilità, e gli sforzi per scoprire e affrontare i pregiudizi” e le disuguaglianze introdotte dagli algoritmi IA, esortando la comunità scientifica a concentrarsi sui “Five Principles of Human Accountability and Responsibility”.
Intelligenza artificiale e responsabilità umana: responsabilità e responsabilizzazione
Letteralmente, “accountability” significa “responsabilizzazione”, ovvero l’adozione di comportamenti attivi che dimostrino la concreta adozione di misure finalizzate alla corretta applicazione di tutte le norme, prassi, regolamenti per proteggere l’integrità della scienza, la sua credibilità e la credibilità di chi dovrebbe, in un futuro più vicino di quanto non si immagini, aiutarci criticamente e costruttivamente: l’AI.
Più che un termine, “accountability” è un concetto, un approccio.
La traduzione in italiano che più si avvicina è quella di “responsabilizzazione”, che tuttavia non è sufficiente: occorre uno sforzo ermeneutico ulteriore per coglierne per intero il più ampio significato. In estrema sintesi, si può dire che l’accountability non ha a che fare tanto (o, per lo meno, non solo) con la posizione di responsabile, ma con l’atteggiamento proattivo che deve connotarne l’operato: con accountability, infatti, si fa riferimento all’approccio responsabile che ogni organizzazione è tenuta ad adottare, prima ancora del momento in cui lo stesso verrà gestito. |
I cinque principi di responsabilità, cui il report fa riferimento, sono:
- «divulgazione e attribuzione trasparenti»;
- «verifica dei contenuti e delle analisi generati dall’IA»;
- «documentazione dei dati generati dall’IA»;
- «etica ed equità»;
- «monitoraggio continuo, supervisione e coinvolgimento pubblico».
Uno: non nascondersi mai
Potremmo tradurre così il primo principio invocato dal PNAS: in sostanza, gli scienziati dovrebbero dichiarare apertamente di far uso dell’IA generativa nella ricerca.
È il primo passo della credibilità, in fin dei conti.
Saper distinguere e attribuire i meriti delle “idee primigenie” all’uomo o all’AI, “riconoscendo i rispettivi contributi” e fornire “dettagli accessibili al pubblico sui modelli, inclusi i dati utilizzati per addestrarli o perfezionarli”, così come “fornire archivi a lungo termine dei modelli per consentire la replicabilità” e “perseguire innovazioni nell’apprendimento e nel ragionamento”. Ammettere gli errori nei quali si è incorsi non significa nient’altro che essere trasparenti nei mezzi e nei fini.
L’IA ci deve aiutare nel generare più in fretta e meglio idee (e soluzioni per la risoluzione dei problemi) alle quali saremmo comunque arrivati, ma dopo, o in ritardo. E/ma deve essere governata, nella totale trasparenza.
Non dobbiamo averne paura e anzi, dobbiamo cogliere le opportunità, senza vergognarcene.
Due: verifica e analizza
L’IA è uno strumento, e come tale deve essere utilizzato.
I risultati che produce sono il frutto non solo dell’accuratezza delle istruzioni che gli forniamo, ma anche della qualità del controllo e delle analisi sugli “output artificiali”.
E quando “non è possibile verificare la veridicità del contenuto generato, l’output del modello dovrebbe fornire valutazioni di fiducia chiare e ben calibrate. I creatori di modelli dovrebbero identificare, riportare e correggere proattivamente i pregiudizi negli algoritmi IA che potrebbero distorcere i risultati della ricerca o le interpretazioni”.
Tre: tieni traccia di tutto
Uno dei rischi più evidenti nell’uso dell’IA nella scienza riguarda la generazione di dati e contenuti sintetici che potrebbero essere erroneamente interpretati come reali. Per questo, la capacità dell’IA di creare testi, immagini e dati che imitano le osservazioni del mondo reale ha spinto la comunità scientifica a richiedere una rigorosa documentazione della provenienza dei dati generati dall’IA. Gli scienziati hanno il dovere di:
- contrassegnare chiaramente tutti i contenuti generati dall’IA, specificando il ruolo che l’intelligenza artificiale ha giocato nel processo di produzione: questa trasparenza è fondamentale per evitare che i dati sintetici vengano confusi con osservazioni empiriche;
- mantenere una traccia dettagliata della provenienza dei dati, al fine di prevenire il rischio di riutilizzare contenuti generati al computer in contesti futuri, dove potrebbero causare distorsioni o errori nei modelli successivi.
Questa trasparenza è strettamente correlata con il primo principio: presentare tali dati come se fossero reali comprometterebbe non solo la validità della ricerca, ma anche la fiducia del pubblico nei risultati scientifici. |
Quattro: inclusività
Uno degli aspetti più controversi dell’IA riguarda il suo utilizzo nelle decisioni critiche, come nei processi di peer review o nelle valutazioni per il finanziamento di progetti scientifici. L’idea che l’IA possa intervenire in decisioni di questo tipo solleva questioni etiche fondamentali, dal momento che la mancanza di un’intelligenza emotiva e il potenziale di introduzione di bias rendono l’IA uno strumento inadeguato per decisioni che richiedono una valutazione umana attenta.
Senza supervisione umana attenta – si sottolinea – l’uso dell’IA in tali processi potrebbe portare a decisioni inique o sbagliate, minando la fiducia nel sistema di ricerca.
La democratizzazione degli strumenti IA deve essere un obiettivo prioritario per garantire che non solo le grandi istituzioni o i Paesi avanzati ne traggano beneficio, ma anche le comunità sottoservite o emarginate.
Bene: peccato che il problema sia (soprattutto?) a monte.
Cinque: monitora (anche l’ipocrisia)
I bias nei dati di addestramento, infatti, possono riflettere pregiudizi già presenti nelle società umane: preoccuparsi dei potenziali effetti dannosi che si potrebbero verificare senza un adeguato controllo – e senza promuovere equità ed equo accesso alle opportunità scientifiche e tecnologiche – tuttavia, appare quanto meno ipocrita, senza una altrettanto dura lotta ai pregiudizi e alle iniquità… umane.
Ad ogni modo, l’IA è una tecnologia in rapida, rapidissima evoluzione e, con essa, cambiano anche le implicazioni etiche e scientifiche: per questo motivo, il monitoraggio costante del suo impatto sulla ricerca scientifica è essenziale.
Senza dimenticarci che l’IA è uno strumento, e la sua pericolosità o meno dipende anche, e soprattutto, da chi e come lo utilizza…
***** l’articolo pubblicato è ritenuto affidabile e di qualità*****
Visita il sito e gli articoli pubblicati cliccando sul seguente link
Informativa sui diritti di autore
La legge sul diritto d’autore art. 70 consente l’utilizzazione libera del materiale laddove ricorrano determinate condizioni: la citazione o riproduzione di brani o parti di opera e la loro comunicazione al pubblico sono liberi qualora siano effettuati per uso di critica, discussione, insegnamento o ricerca scientifica entro i limiti giustificati da tali fini e purché non costituiscano concorrenza all’utilizzazione economica dell’opera citata o riprodotta.
Vuoi richiedere la rimozione dell’articolo?
Clicca qui
***** l’articolo pubblicato è ritenuto affidabile e di qualità*****
Visita il sito e gli articoli pubblicati cliccando sul seguente link
Informativa sui diritti di autore
La legge sul diritto d’autore art. 70 consente l’utilizzazione libera del materiale laddove ricorrano determinate condizioni: la citazione o riproduzione di brani o parti di opera e la loro comunicazione al pubblico sono liberi qualora siano effettuati per uso di critica, discussione, insegnamento o ricerca scientifica entro i limiti giustificati da tali fini e purché non costituiscano concorrenza all’utilizzazione economica dell’opera citata o riprodotta.
Vuoi richiedere la rimozione dell’articolo?
Clicca qui
Informativa sui diritti di autore
Questa è una parte dell’articolo originale
Vuoi approfondire l’argomento, criticarlo, discutere
come previsto dalla legge sul diritto d’autore art. 70
Sei l’autore dell’articolo e vuoi richiedere la rimozione?
Per richiedere la rimozione dell’articolo clicca qui
La legge sul diritto d’autore art. 70 consente l’utilizzazione libera del materiale laddove ricorrano determinate condizioni: “Il riassunto, la citazione (source link) o la riproduzione di brani o di parti di opera e la loro comunicazione al pubblico sono liberi se effettuati per uso di critica o di discussione, nei limiti giustificati da tali fini e purché non costituiscano concorrenza all’utilizzazione economica dell’opera; se effettuati a fini di insegnamento o di ricerca scientifica l’utilizzo deve inoltre avvenire per finalità illustrative e per fini non commerciali