La faccia oscura e i rischi «morali» dei super algoritmi

«Il pericolo forse più serio del cattivo uso di ChatGpt è nell’educazione: non preoccupa solo il fatto che gli studenti imbroglino. Più grave è che non si sforzino di analizzare dati e informazioni, elaborarli e usarli per ragionare e creare cose nuove. Il rischio è perdere capacità di critica e innovazione». Il campanello d’allarme lo suona Francesca Rossi, global leader di Ibm per l’etica dell’intelligenza artificiale.

L’Economia l’ha intervistata nel centro di ricerca di Yorktown Heights, a New York, dove lavora, in occasione della copertina che a marzo il mensile della Association for Computing Machinery ha dedicato a un suo saggio sull’etica dell’Ai e delle neurotecnologie. «La combinazione dell’intelligenza artificiale con altre tecnologie allarga la gamma di problemi etici da affrontare — spiega Rossi — Neurotech permette di leggere e interpretare i dati ottenuti con sensori dal nostro sistema nervoso centrale e anche modificarli».

Rossi fa l’esempio di un malato di Parkinson: l’intelligenza artificiale più neurotech permette di riconoscere quando sta per arrivare un tremore e quindi stimolare parti del cervello per mitigare quel tremore. Lo stesso per un malato di epilessia: si può anticipare un attacco e stimolare il cervello per attenuarne l’impatto. «Ma la lettura e la scrittura dei dati del nostro sistema nervoso centrale espande i rischi di queste tecnologie — continua Rossi —. A lungo termine, può invadere la privacy mentale, carpendo i nostri pensieri e intenzioni; può minare il nostro senso di identità, modificare il nostro comportamento».

Non è fantascienza, sottolinea la scienziata: «In ricerca sono già stati fatti esperimenti di interpretazione dei dati dal nostro cervello, per esempio per anticipare che cosa vogliamo scrivere con la tastiera di un computer e scriverlo davvero: è una tecnologia per persone incapaci di comunicare in altri modi. Altre applicazioni servono ad aiutare chi ha perso degli arti, permettendo di comunicare alle protesi segnali che vengono dal cervello».

Neurotech: sviluppo e diffusione

Per ora neurotech e altre tecnologie simili sono meno pervasive delle applicazioni di intelligenza artificiale già diffuse nella società. «Ma è importante applicare subito a queste nuove frontiere quello che abbiamo imparato con l’intelligenza artificiale», raccomanda Rossi. Quello che è successo con ChatGpt non è una sorpresa per i ricercatori come lei, che spiega: «La tecnologia Gpt (Generative Pre-trained Transformer) ha le sue radici fn negli anni Ottanta con il machine learning, che ha potuto svilupparsi negli anni 2000 con computer capaci di elaborare enormi quantità di dati. Poi è arrivato il deep learning e adesso il transformer, la tecnica alla base del chatbot ChatGpt».

Con questa tecnica si possono creare sistemi capaci di imparare da soli sulla base di enormi quantità di dati non etichettati — cioè non inseriti come esempi accoppiati a soluzioni —, ma disponibili su tutto il web; e da lì generare nuovi dati, testi e immagini. «Sono sistemi capaci quindi di sostenere conversazioni con noi umani — spiega Rossi —. Ma diversamente da noi non hanno un modello del mondo, non distinguono il vero dal falso e generano anche testi non rispondenti alla realtà».

ChatGpt: novità e aspetti critici

La vera novità, secondo Rossi, è che un sistema come ChatGpt è stato messo a disposizione di tutti prima di sperimentarlo accuratamente. «Per chi non è esperto, è normale pensare che un chatbot con una tale capacità di interazione sia intelligente — osserva la scienziata —. ChatGpt ha elevato alla massima potenza la nostra tendenza ad attribuire caratteristiche umane a qualsiasi entità che ha un comportamento simile al nostro». Ma ChatGpt è solo capace di aggiungere una parola dopo l’altra, sulla base delle 300 parole precedenti. «Una volta il testing veniva fatto durante la ricerca, ora il testing è stato fatto su milioni di utenti — sottolinea Rossi —. Chi ha lanciato ChatGpt ora ha posto dei filtri, ma la questione va risolta a monte».

Il tema, insomma, è quello dei limiti. «Anche Ibm usa sistemi basati su transformer, ma per risolvere problemi specifici di una particolare azienda-cliente: i dati elaborati vengono da documenti certificati e gli utenti vengono educati a capire le capacità e i limiti del sistema», racconta la scienziata.

I pericoli concreti legati a questa tecnologia sono anche altri, avverte Rossi: «Ci sono i bias. Prima, con i sistemi allenati dai programmatori, c’era attenzione a immettere esempi/soluzioni non macchiati da pregiudizi; ora è meno possibile con i sistemi aperti, che attingono dati da tutto il web. C’è poi la questione della explainability: è meno chiaro come i contenuti vengono generati, e gli utenti potrebbero non fidarsi di una scatola chiusa».

Conclusioni

È ovviamente possibile usare questi sistemi come supporto delle capacità umane, rassicura Rossi: «Per esempio un mese fa Ibm ha messo a punto un sistema che genera nuove molecole, non sostituisce gli scienziati, ma accelera le loro scoperte». Il pericolo forse più serio, ribadisce la scienziata, è nel campo dell’educazione. «Le nuove generazioni vanno allenate a ragionare, anche con il supporto della tecnologia».

Maria Teresa Cometto, L’ECONOMIA-CORRIERE DELLA SERA. Lunedì 20 Marzo 2023

Related Post

Lascia un commento

Il tuo indirizzo email non sarà pubblicato.