Uno spettro s’aggira per l’Europa, l’intelligenza artificiale

image_pdfimage_print

Il Parlamento e il Consiglio europeo hanno recentemente approvato il Regolamento che «stabilisce regole armonizzate sull’intelligenza artificiale». Si attende ora la sua pubblicazione nella Gazzetta Ufficiale europea mentre è in corso una non semplice revisione linguistica di un testo che, letto e riletto, non si presenta di facile comprensione; non a caso la premessa al testo è composta da ben 180 considerazioni tese a spiegare i 113 articoli e i 13 allegati. Una volta pubblicato il Regolamento è prevista una fase di transizione, di entrata in vigore graduale che durerà tre anni.

L’attuale definizione del sistema di intelligenza artificiale (IA) prevede un sistema automatizzato «che, per obiettivi espliciti o impliciti, deduce dall’input che riceve come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali» mentre nel testo della proposta del 2021 della Commissione veniva indicato come sistema di IA «un software che, per una determinata serie di obiettivi definiti dall’uomo», può generare output. Il carattere “antropocentrico” richiamato all’articolo 1 del Regolamento non è garantito da una decisione umana ma dalla elaborazione che farà il sistema automatico. L’uomo avrà il compito di controllare la coerenza con questo principio. Il metodo per garantire questo controllo dovrà avvenire seguendo l’ormai lunga consuetudine della formulazione di norme vincolanti da rispettare nel caso in cui si immettano sul mercato merci che possono provocare un danno all’uomo o all’ambiente. L’intelligenza artificiale è, dunque, una merce.

Nell’esaminare il testo mi è ritornata in mente, per antico mestiere, la normativa europea sull’immissione nel mercato di attrezzature di lavoro, la “direttiva macchine” ai tempi, oggi un regolamento: indicazione dei criteri di sicurezza da rispettare, autocertificazione e marcatura CE, sistema pubblico di governance e vigilanza. Questa struttura si ripresenta nel Regolamento sull’intelligenza artificiale solo che, tra i rischi che devono essere considerati, ci sono quelli che possono provocare danni ai diritti di dignità, libertà, uguaglianza, solidarietà, cittadinanza e giustizia come indicati nella Carta dei Diritti dell’Unione Europea. Nel testo viene poi richiamata anche l’esigenza di considerare i rischi per la democrazia.

La ragione della soppressione dalla definizione di IA delle parole «per obiettivi definiti dall’uomo» attiene alla diffusione dei nuovi sistemi di intelligenza artificiale che vengono chiamati «modello di IA per finalità generali», un modello di IA addestrato con grandi quantità di dati, utilizzando l’autosupervisione su larga scala. Gran parte delle integrazioni e correzioni al testo originario del 2021 si propongono di meglio definire questo sistema e di introdurre norme per evitare danni all’uomo, all’ambiente naturale e sociale (e alla democrazia).

L’immissione sul mercato europeo di tali sistemi considera, infatti, il loro grado di pericolosità e li suddivide in sistemi vietati, che non possono circolare, e sistemi ad alto rischio, che invece possono circolare alle condizioni indicate nel Regolamento.

Sono vietati i sistemi che si propongono di manipolare il comportamento umano e di discriminare le persone utilizzando registrazioni, classificazioni e banche dati, avvalendosi della registrazione, soprattutto da remoto, di dati biometrici, immagini facciali, sguardi e conversazioni. Per le attività di contrasto, le indagini di polizia e quelle giudiziarie, sono previste delle deroghe a questo divieto, ma per l’uso ci dovrà essere sempre un’autorizzazione di un giudice in presenza di reati di particolare gravità, dal terrorismo al traffico di esseri umani e alla criminalità organizzata.

È prevista invece la circolazione nel mercato europeo di «sistemi di IA ad alto rischio» che si propongono: in un primo caso, una azione sul mercato o come parte di attrezzature e strumenti per il lavoro e la vita sociale indicati da uno specifico allegato (dalle macchine ai mezzi di trasporto per fare un esempio); in un secondo caso, la registrazione, archiviazione, classificazione e uso di dati, ciascuno dei quali indicato con una definizione: dati biometrici, identificazione biometrica, verifica biometrica, categorie particolari di dati personali, sistema di riconoscimento delle emozioni, sistema di categorizzazione biometrica, sistema di identificazione biometrica in tempo reale e a posteriori. Insomma, sguardi, zigomi, smorfie, termini usati, scritti che passano attraverso un server, una volta archiviati possono essere rielaborati e proposti sul mercato come aspettative, desideri e comportamenti prevedibili (elaborati da IA). È un mercato che coinvolge miliardi di esseri umani. Conviene ricordare Larry Page, uno dei fondatori e CEO di Google: «La nostra ambizione più grande è trasformare l’esperienza che offre Google rendendola meravigliosamente semplice, quasi automagica nel comprendere che cosa vuoi e offrirtelo immediatamente».

In entrambi i casi un sistema IA GTP (trasformatori generativi pre-addestrati basati su reti neurali) a un certo punto si autoalimenta e costruisce autonomamente delle “inferenze”. Per questo deve esserci un sistema di sorveglianza degli utilizzatori che corregga o blocchi un sistema che va fuori controllo. È prevista una sorveglianza umana e ogni utilizzatore (deployer) ha il dovere di indicare le persone particolarmente esperte che devono svolgere questo compito.

Paradossalmente, almeno per chi scrive, è prevista una alfabetizzazione all’uso di questi sistemi svolta solo dai fornitori e dagli utilizzatori della IA, con il rischio di una divisione culturale e sociale tra burattini e burattinai, per dirla con Shoshana Zuboff (Il capitalismo della sorveglianza. Il futuro dell’umanità nell’era dei nuovi poteri, Luiss, University Press, 2023). I cittadini europei, come afferma la Carta dei diritti, non possono solo essere oggetto di tutela, ma devono essere protagonisti consapevoli nell’uso di strumenti che influenzeranno comunque il loro comportamento. Centri culturali, associazioni sociali e organizzazioni politiche hanno e avranno un ruolo importantissimo di diffusione di una nuova cultura della democrazia cognitiva ma dovranno superare la pratica della democrazia fondata pressoché esclusivamente sugli affari di alcuni e sul consenso passivo dei tanti.

Coerentemente con la preoccupazione sugli effetti negativi che può avere un uso non umano di esseri umani attraverso i sistemi di IA, le istituzioni europee hanno indicato, nella seconda parte del Regolamento, il sistema di governance che deve essere attuato sia nei singoli Stati che a livello continentale. Dovrà essere costituita una banca dati europea (e nazionale) dove sono registrate tutte le comunicazioni e i pareri di conformità dei sistemi IA immessi sul mercato, per poi seguire le evoluzioni che ognuno di questi potrà avere sempre attraverso la comunicazione (doverosa) di produttori e deployer delle eventuali variazioni e innovazioni che il sistema può determinare. Sono previsti gruppi di tecnici, in primis l’Ufficio per l’Intelligenza Artificiale della Commissione Europea, con compiti di monitoraggio e supervisione sia della diffusione di tali strumenti che di verifica e supporto alle competenti strutture che ogni Stato si deve dotare. Ed è prevista una forte centralizzazione della governance, probabilmente determinata dall’incertezza sulla reale efficacia delle norme contenute nel Regolamento, come ha affermato uno dei massimi dirigenti di una delle più importanti conurbazioni digitali e finanziarie: «ci muoviamo molto più velocemente di qualsiasi governo». La sfida è aperta.

La prima frase della premessa conferma che «il Regolamento dovrebbe lasciare impregiudicate le disposizioni volte a migliorare le condizioni di lavoro nel lavoro mediante piattaforme digitali», ma solo qualche settimana fa il Consiglio europeo ha affossato la direttiva sul lavoro tramite piattaforme (riders e non solo). Anche se viene vietato l’uso di sistemi di IA per «inferire le emozioni di una persona fisica nell’ambito del luogo di lavoro e degli istituti di istruzione», l’esperienza in atto, soprattutto nel settore della logistica, ci dice che gli atti di lesione della dignità del lavoratore sono piuttosto diffusi e difficilmente distinguibili e separabili dai sistemi di IA che l’Unione europea considera ad alto rischio quando utilizzati nel settore dell’occupazione, nella gestione dei lavoratori, per l’assunzione e la selezione delle persone, per la cessazione dei rapporti contrattuali di lavoro sino all’assegnazione dei compiti sulla base dei comportamenti individuali, delle caratteristiche o dei comportamenti personali.

Il responsabile del comitato italiano per l’intelligenza artificiale, padre Benanti, si pone la domanda se l’IA sia compatibile con la democrazia perché sicuramente sta già influenzando e influenzerà sempre di più i processi democratici. Shoshana Zuboff sottolinea come sia ormai aperta la contraddizione su chi potrà «sapere, decidere e decidere su chi decide». La contraddizione e il sempre meno latente conflitto sul futuro della democrazia economica e politica è di fronte a noi e ci chiede un significativo rinnovamento della cultura di chi si batte per un futuro migliore.

Gli autori

Fulvio Perini

Perini Fulvio, sindacalista alla CGIL, ha collaborato con la parte lavoratori, Actrav, dell’Organizzazione Internazionale del Lavoro.

Guarda gli altri post di:

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.