L'Italia è il primo Paese al mondo dove è stata sospesa l'applicazione dell'intelligenza artificiale. Una voce solitaria che può essere da apripista
Ecosi arriva lo stop del Garante della privacy alla ChatGPT di OpenAi. Non che il Garante stesso non avesse già evidenziato quale fosse l’entità della raccolta dei dati, come avevamo avuto modo di scrivere. Ma adesso il tema assume una rilevanza diversa e il Garante apre una vera e propria istruttoria e sospende momentaneamente l’utilizzo dell’applicazione. Cosa rileva il nostro Garante, che per primo al mondo si muove in questo senso? Rileva una scarsa chiarezza nell’utilizzo dei dati e la mancanza della base giuridica per la loro conservazione, oltre che una informazione difettosa nei confronti degli utenti. Rilievi importanti.
Il Garante “ha disposto, con effetto immediato, la limitazione provvisoria del trattamento dei dati degli utenti italiani nei confronti di OpenAI, la società statunitense che ha sviluppato e gestisce la piattaforma”. Ora OpenAi ha 20 giorni per rispondere e intanto, solo pochi giorni fa, per un errore tecnico è stato possibile vedere la serie di chat comprensive di dati personali e, udite udite, anche i metodi di pagamento per passare alla versione plus.
Insomma, il Garante italiano non ha perso tempo ed ha nuovamente segnato come, in un campo come questo, sia necessario e indispensabile il quadro regolatorio, fortunatamente già esistente in Europa grazie al GDPR, ma anche un coordinamento europeo e, direi io, globale. Già, perché la tecnologia non ha confini, i dati viaggiano e l’umanità tutta deve essere protetta nei suoi diritti fondamentali. La tutela universale dei diritti umani vale sempre, e dunque perché non per gli sviluppi dell’Intelligenza Artificiale?
Una voce solitaria quella del Garante della privacy italiano? Per ora, a nostra conoscenza sì. Intanto mentre si discute di come tutelare dati, privacy, conversazioni degli utenti e anche eventualmente dati di transazione economica, in giro per il mondo più aziende tra cui Google e aziende cinesi stanno lavorando per sviluppare la versione numero cinque della chat GPT.
Leggi anche
IL CASO
Intelligenza artificiale, l'inquietante evoluzione
Cinzia MaioliniLe nuove funzionalità di OpenAI, la Chat GPT-4, non rendono lo strumento più intelligente, ma riducono solo la possibilità di errori. Tutti i rischi restano
Sappiamo che vi è un gruppo, su cui varrà la pena effettuare un successivo approfondimento, che vede tra i componenti Elon Musk e circa un altro migliaio di persone e chiede una sospensiva di almeno sei mesi sulla ricerca e sulle implementazioni dell’intelligenza artificiale ipotizzando rischi concreti, ossia che questi strumenti "inondino i nostri canali informativi con propaganda e falsità", per arrivare a visioni decisamente più catastrofiche per l’umanità.
Oggettivamente non credo che vi siano oggi timori effettivi di sostituzione dell’intelligenza umana con modelli che la ricercatrice TIMIT GEBRU definisce pappagalli stocastici, capaci cioè di ripetere ciò che hanno immagazzinato. Ma aldilà della lettera in oggetto, che ciascuno potrà valutare, la domanda è perché uno stop proprio adesso che lo sviluppo sta diventando sempre più evidente per l’utilizzo che ne viene fatto dalle persone comuni?
Evidentemente, come più volte abbiamo detto, la tecnologia ha bisogno per ogni sua implementazione di un governo umano a monte che sia in grado di determinarne gli utilizzi migliori, con uno sguardo umanocentrico e non fine a se stesso, o, peggio ancora, finalizzato al mero profitto.
E allora ecco che modelli così sviluppati e sempre più sofisticati come ad esempio può essere chat Gpt possono indurre ad esempio a cattiva informazione, possono portare a Deep fake: si veda ad esempio la famosa immagine passata ultimamente su tutti i media del Papa vestito in modo alquanto bizzarro che sembrava peraltro completamente rispondente al vero, se non fosse che si trattava di una mera ricostruzione artificiale. Il tutto con rischi non indifferenti per la democrazia se la fake inerisse altri temi.
E poi rimangono aperte le vecchie questioni: possibili discriminazioni, gli errori che, per quanto di volta in volta affrontabili, rimangono ancora un problema sensibile se si parla addirittura di effetti allucinatori, e poi la sorveglianza, su cui non vi è affatto da scherzare perché sono elementi prodromici e funzionali. a possibili limitazioni della libertà. Il Garante italiano dice “le informazioni fornite da ChatGPT non sempre corrispondono al dato reale, determinando quindi un trattamento di dati personali inesatto“ non pare una banalità!
Allora ecco che se, ad esempio, l’accesso all’informazione fosse legato solo ed esclusivamente o sempre più frequentemente a prodotti derivanti da una intelligenza artificiale che auto apprende e apprende sulla base di dati di cui l’umano, per l’enorme quantità di dati in circolazione, potrebbe perdere addirittura il controllo, quale sarebbe la modalità di comunicazione, di diffusione del sapere che informerà di sé l’umanità?
Ecco alcuni dei problemi etici che pone lo sviluppo dell’intelligenza artificiale: sono molti ed è da ormai qualche anno che anche la Cgil studia e tenta di analizzare i possibili rischi che una tecnologia non governata e così pervasiva può creare non solo per quanto attiene gli aspetti lavoratici ma anche per quanto attiene gli aspetti sociali e l’esercizio della democrazia.
Abbiamo sempre parlato di un cambio di paradigma sociale che aveva ed ha ancor più necessità di essere regolamentato e non si possono fare regole valevoli solo per un pezzo di mondo quando la tecnologia non conosce confini; ecco allora che ancora anche questa volta l’Italia, con la sua Autorità garante per la privacy, ha posto un punto di attenzione su un tema che va aldilà della mera tutela dei dati degli utenti, che pure è un elemento essenziale, e ha posto un tema che va aldilà anche della tutela della privacy che noi intendiamo come diritto del singolo.
Il garante, aprendo questa istruttoria, ha nuovamente posto l’attenzione su un meccanismo di intelligenza artificiale che, come gli altri, necessita di regole trasparenti capaci di essere lette e comprese dagli utenti ma ancor più, a monte, pone nuovamente per chi lo voglia leggere un problema di governo generale delle implementazioni. Un tema che non riguarda soltanto il sindacato ma la società tutta e che deve coinvolgere politici, deve coinvolgere sociologi, deve coinvolgere filosofi, psicologi, antropologi, economisti, cioè tutti coloro che hanno la possibilità di dare uno sguardo specifico che, insieme gli altri, divenga olistico sul futuro e sul presente dell’umanità e funga da supporto alle necessarie scelte programmatorie.
Cinzia Maiolini è responsabile Ufficio 4.0 Cgil