Blockchain o Ball and Chain? Il diabolico incrocio tra criptovalute e intelligenza artificiale

Autore:

Volerelaluna ha ospitato nelle settimane scorse vari interventi sul tema dell’Intelligenza Artificiale (AI), delle sue sfide e dei suoi pericoli. Franco Marra, che già ha contribuito a questa analisi (https://volerelaluna.it/societa/2024/03/04/internet-la-promessa-tradita/), interviene ora con un secondo contributo, sui rapporti fra AI e criptovalute. Il tema è di grande rilevanza, ma porta in un territorio estremamente oscuro, in cui il rischio di non capire cosa sta succedendo è elevato. Marra ha fatto un grande sforzo di semplificazione, riscrivendo più volte l’articolo. Anche così, il profano fa fatica. Poiché pensiamo che aiutare a capire sia un compito di questo sito, abbiamo proposto a Marra di presentare quanto ha scritto in un incontro, il 4 giugno alle ore 18, in cui faremo un tentativo didattico: lui comincerà a raccontare, e i presenti, passo dopo passo, interverranno per farsi spiegare i punti più astrusi. Proviamo… (la redazione)

Il concetto di criptovaluta è ostico, ma chi ha giocato a Monopoli ne ha una conoscenza intuitiva. La differenza è che i soldi, invece di darteli la banca all’inizio del gioco, te li devi sudare in una gara a chi fa prima a risolvere un puzzle calcolando un hash.

Ma cos’è un hash? Per capirlo bisogna partire dalla crittografia (o, per capirci, “scrittura nascosta”). Pensiamo alla relazione che esiste tra un racconto e il suo riassunto. Cambiando in una certa misura il racconto la fedeltà del riassunto svanisce. Ma supponiamo di essere di fronte a un riassunto “perfetto” (qualunque cosa questo termine voglia dire). Se il riassunto fosse abbastanza corto lo si potrebbe usare come titolo “perfetto” del racconto. Il racconto avrebbe un solo titolo e titoli anche leggermente variati corrisponderebbero a racconti del tutto diversi. Con la matematica si può fare, purché l’originale sia digitale, ossia codificato in un blocco di bit. Applicando delle trasformazioni crittografiche si ottiene un suo riassunto in bit, il suo hash. Se si vuole verificare che il racconto sia in copia originale lo si fa tritare dall’algoritmo di hash, e poi si confronta il risultato con l’hash di prima. Se sono diversi, il racconto è stato modificato.

E ora raccontiamo la storia dall’inizio.

Nei primi anni del terzo millennio nasce il Partito Pirata svedese. Per gli aderenti a questo movimento Internet è uno spazio pubblico libero, al di fuori del potere dei governi, delle multinazionali dell’Information Technology o dell’industria dei media. Il bersaglio dei Pirati è il copyright, il diritto d’autore: il nome stesso del movimento richiama la pirateria on-line, l’attività che porta alla fruizione di contenuti multimediali, musica, filmati, senza riconoscimento dei relativi diritti. Viene fondato un sito di file sharing, “The Pirate Bay”, che adotta un particolare protocollo per distribuire contenuti protetti da copyright, il BitTorrent. Usando il BitTorrent, un prodotto multimediale, trasmesso in segmenti identificati e verificati dai loro hash, viene condiviso ennuplicandolo con chiunque sia interessato alla sua fruizione. Basta il furto originale a spese del detentore dei diritti e il contenuto si propaga viralmente. Un protocollo che avrà ai nostri tempi un inatteso successo in un campo del tutto diverso, quando le comunità di Internet culturalmente eredi dei Pirati decideranno di usare Internet come piazza per i loro commerci come se fosse un tabellone del Monopoli. Dovranno però prima inventare una rappresentazione digitale del mercato e implementare in rete l’idea di valuta.

Un mercato è uno spazio in cui si scambiano cose, e una valuta è il metro di misura che consente la stima del valore relativo delle cose, una unità di conto. Una mela vale due carote quando il suo prezzo espresso in valuta è il doppio di quello della singola carota. È il simbolo intercambiabile di un qualche sostituto degli ortaggi e di tutte le altre merci, un bene materiale (sottostante) stabile nel tempo, raro e maneggevole, ambito da tutti sopra ogni altra merce. Parliamo dell’oro, che può assumere nel digitale una nuova e inusitata forma, un gruppetto di bit ottenuto con molta fatica algoritmica e a un costo elevato da un altro blocco di bit: il suo hash. Per analogia con l’estrazione dell’oro, questo “scavo” matematico si chiama mining, e chi ci lavora è un miner. Il miner intasca in un suo borsellino digitale, il wallet, il premio per la sua fatica: il prezzo dell’oro digitale che ha “scavato”, un valore per il costo del calcolo riconosciuto dalla comunità in cui opera, espresso in qualche valuta convenzionale che faccia da unità di conto come i soldi del Monopoli. Userà quella somma per far commercio di beni reali nella rete comunitaria: ogni guadagno e ogni spesa andrà ad aumentare o a diminuire il contante nel suo wallet, e il valore di ogni transazione verrà registrato in una voce, un token, nel blocco di bit che ha fatto da miniera. Questo diventerà una pagina del registro, il ledger, di tutte le transazioni fatte sul mercato, che rimarranno anonime. Per verificare in futuro se questa pagina del ledger è stata alterata basterà ricalcolare il suo hash e confrontarlo con quello originale, memorizzato in un altra pagina dello stesso registro. Per essere verificabile, questo registro sarà pubblico, ennuplicato in visione per tutti gli attori del mercato con il protocollo di comunicazione erede del BitTorrent dei Pirati.

Ma il nostro miner non è il solo a far sudare gli algoritmi. Ogni blocco viene estratto in una gara con gli altri miner che agiscono sul mercato, dove vince e incassa il premio il più veloce. Se validato dalla comunità il nuovo blocco viene aggiunto come ultima pagina al ledger, legato dal suo hash, ultimo anello della catena della blockchain che ne costituisce l’impaginato. Questa gara algoritmica è devastante dal punto di vista energetico, per la complessità del calcolo che viene eseguito da molti miner ogni 10 minuti circa, il tempo richiesto dall’algoritmo di hash. Si crea valore a spese dell’ambiente, secondo la più tipica tradizione capitalista estrattiva e di sfruttamento delle risorse naturali. Alla faccia degli iniziali buoni propositi e manifesti politici dei Pirati.

La prima criptovaluta, del 2009, è stata il bitcoin. Sui bordi della rete, negli exchange dove si scambia la criptovaluta con quella del mondo reale, si fa speculazione facendo così assumere alla valuta della Rete il ruolo oggi predominante di riserva di valore per il mondo esterno. Gli speculatori comprano criptovaluta come una volta compravano oro, scommettendo sul suo futuro aumento di valore assicurato dall’anonimato delle transazioni, assai gradito a chi non vuol mettere in piazza i propri affari e dal numero limitato a priori dei bitcoin in circolazione. Questa è la notizia che rimbalza sui media.

Ben presto, nel 2013 al bitcoin segue l’ether, una criptovaluta della piattaforma Ethereum. Segue poi una pletora di altre criptovalute associate alle loro blockchain dall’intento più o meno speculativo, a popolare quello che ormai si chiama Web 3.0, il web delle transazioni economiche.

Nel 2014 fanno il loro esordio i Non-Fungible Token (NFT), voci che registrano diritti di proprietà su oggetti digitali unici come arte crittografica, oggetti da collezione digitali e giochi online usando nelle transazioni i loro hash, come rimedio alla riproduzione di massa e distribuzione non autorizzata di copie in Internet. Si tratta di token quindi non più “fungible”, ma associati per sempre a un determinato bene. Per estensione anche fisico, purché digitalizzabile, di cui divengono i digital twin, i gemelli digitali. Repliche virtuali di oggetti, processi, luoghi, infrastrutture, sistemi e dispositivi e che stanno assumendo un’importanza crescente nella IoT, l’Internet of Things e nell’industria 4.0, ma anche di tutto quel nostro portato esperienziale che vive in chiave digitale.

Nell’autunno del 2022 un’organizzazione nata con scopi etici e cooperativi assicurati dall’adozione di metodologie open source di produzione e gestione del codice, scopre un’irresistibile vocazione al profitto grazie all’esplosivo successo mediatico del suo prodotto di Intelligenza Artificiale Generativa, ChatGPT. Il suo vate, la nuova superstar della galassia digitale, è Sam Altman, un giovane imprenditore informatico statunitense (1985). Successo mediatico che diviene presto successo di mercato grazie a robuste iniezioni di dollari della Microsoft, che infine acquisisce la società dopo vicende da soap opera apparse sui media di tutto il mondo ((https://volerelaluna.it/societa/2024/02/20/la-saga-di-sam-altman-lintelligenza-artificiale-e-la-vittoria-del-profitto/). Sam Altman nel 2021 aveva già fatto nascere Worldcoin, un’impresa per gestire una criptovaluta basata sull’identificazione biometrica dell’identità tramite scansione dell’iride. Questa società ha come fine dichiarato lo sviluppo di “tools for humanity” finalizzati allo sviluppo di un’economia mondiale basata sui principi di quella di Internet. Tra questi, spicca il cosiddetto orb, lo strumento di scansione dell’iride umana. Chi si sottopone alla scansione viene ricompensato proprio con dei worldcoin, spendibili nella cyber-comunità creata da Altman, di cui viene a far parte. Ora mettiamo insieme le cose.

La tecnologia dell’intelligenza artificiale ha bisogno di una grande quantità di lavoro umano dedicato all’identificazione certa dei dati estratti da Internet (https://volerelaluna.it/in-primo-piano/2024/04/03/clic-senza-frontiere-cosa-ce-alla-base-dellintelligenza-artificiale/). Questo esercito industriale di riserva (per dirla alla Marx), arruolato nel terzo mondo tramite piattaforme internet di microtask come Mechanical Turk di Amazon, è impiegato con un salario di sussistenza a etichettare quelle immagini o situazioni che formano i gangli delle reti neurali artificiali, e a decidere sulle scelte impraticabili per le macchine o a censurare gli orrori di Internet (decapitazioni, pedofilia e altre piacevolezze): prima rovistavano tra i rifiuti delle discariche degli slum rischiando la salute fisica, ora rischiano quella mentale rovistando nelle discariche del web per un paio di dollari all’ora.

Quello che allora si intravede tra le brume del digitale è un crocicchio diabolico sede di un possibile incontro tra le tecnologia delle criptovalute e dell’intelligenza artificiale. Come nel crossroad nel delta del Mississippi dove il diavolo insegnò a Robert Johnson a suonare il blues svettava un albero, in questo incrocio troviamo gli hash delle iridi degli arruolati di Sam Altman, registrati tramite NFT nella blockchain del worldcoin. Forza lavoro per la sua Intelligenza Artificiale, consumatori nel suo mercato e, tramite i loro digital twin, oggetto di diritti da lui posseduti. La vendita digitale dell’anima in cambio di una manciata di soldi da Monopoli, transazione registrata permanentemente in un registro sicuro e affidabile e associata univocamente all’umano tramite uno dei suoi dati biometrici, tra i più personali e identitari: la sua iride. A me ricorda molto la versione digitale della palla al piede a cui si incatenavano gli schiavi. Una ball and chain. E certo non quella cantata da Janis Joplin nel Monterey Pop Festival del 1967 (1), una grande cover dell’omonimo brano blues di Big Mama Thornton.

note:

(1) «Il Festival Internazionale di Musica Pop di Monterey (Monterey Pop Festival) è stato un festival musicale che si è svolto dal 16 giugno al 18 giugno 1967. Vi parteciparono più di 200.000 persone ed esso è anche riconosciuto come uno degli apici del movimento hippie e il precursore del festival di Woodstock, che si svolse due anni più tardi» (Wikipedia).


Un Papa al G7

Autore:

Una sera di aprile in tv, fra le analisi e le riflessioni sui fatti più importante della giornata, c’è stata la comunicazione della partecipazione di Papa Francesco ai lavori del prossimo G7, che si terrà in Italia nel mese di giugno. Tuttavia, nel successivo approfondimento delle notizie, quella comunicazione non è stata oggetto di riflessione e neppure nei dibattiti dei giorni a seguire. Interessata ai temi riguardanti la partecipazione delle comunità religiose nello spazio pubblico, considero necessari alcuni approfondimenti e una riflessione. In questo caso, per capire come le istituzioni esistenti in Italia siano immunizzate rispetto alla diversità e al pluralismo religioso, e creino le proprie arene pubbliche e i propri pubblici, è stato necessario in prospettiva storica, risalire fino agli anni Sessanta durante il Concilio Vaticano II.

È proprio con il Concilio, nel 1965, che si produce lo scostamento più radicale dalla tradizione della Chiesa cattolica. Esso avviene con la promulgazione della Gaudium et Spes, la “Costituzione pastorale della chiesa nel mondo moderno”, che ha riformulato la dottrina sui rapporti con lo Stato, abbandonando «ogni rivendicazione di qualsiasi forma di potestà diretta o indiretta nelle questioni di governo temporale». In quel documento si dichiara che, nel mondo moderno, lo Stato e la Chiesa cattolica, «anche se a titolo diverso, sono a servizio della vocazione personale e sociale delle stesse persone umane […] e svolgeranno questo servizio a vantaggio di tutti, in maniera tanto più efficace quanto meglio coltiveranno una sana collaborazione tra di loro, secondo modalità adatte alle circostanze di luogo e di tempo». Proprio tramite il Catechismo della Chiesa cattolica si insegna che «la legge (morale) naturale procura […] il fondamento necessario alla legge civile» (n. 1959). Ne consegue che il generale dovere di obbedienza all’autorità costituita viene meno «quando i Governanti emanino leggi ingiuste o prendano misure contrarie all’ordine morale» (n. 1903). Lo stesso documento dichiara che «l’autorità è esercitata legittimamente soltanto se ricerca il bene comune» e quest’ultimo «suppone il rispetto della persona in quanto tale. In nome del bene comune, i pubblici poteri sono tenuti a rispettare i diritti fondamentali e inalienabili della persona umana” (n. 1907). Secondo Casanova, nel suo fondamentale libro Oltre la secolarizzazione. Le religioni alla riconquista della sfera pubblica, è da questo momento in poi, che «l’azione in nome della pace e della giustizia e la partecipazione alla trasformazione del mondo diventano una dimensione […] costitutiva della missione divina della chiesa». Il compito della Chiesa cattolica sarà quello di appropriarsi del significato del Vangelo anche attraverso un’interpretazione storica.

Nel breve discorso pubblicato sulla pagina web del G7 per spiegare l’invito del Papa, la presidente Meloni ha dichiarato che il Pontefice è stato invitato a partecipare alla sezione dedicata all’intelligenza artificiale nella sezione Outreach, aperta anche ai paesi invitati e non solo ai membri del G7. Nella sezione dedicata all’intelligenza artificiale il Papa presenterà il percorso avviato dalla Santa Sede nel 2020, con il Rome Call for A. I. Ethics, un documento che la presidenza italiana del G7 intende promuovere, come contributo decisivo al processo di definizione di un quadro regolatorio etico e culturale all’Intelligenza artificiale. La stessa Presidente del Consiglio ha sottolineato che «sarà la prima volta nella storia, che un Pontefice partecip(erà) ai lavori del Gruppo dei Sette e questo non può che rendere lustro all’Italia e all’intero G7».

Facendo ancora un passo indietro, nel trattare la questione dell’Intelligenza artificiale e le sfide per il futuro, bisogna dire che negli Stati Uniti, nel 2018, era stata istituita la National Security Commission on Artificial Intelligence (NSCAI): una commissione indipendente con l’obiettivo di formulare delle raccomandazioni al Presidente e al Congresso per lo sviluppo dell’intelligenza artificiale ponendo la necessità di costituire un Artificial Intelligence Board. In Italia, negli stessi anni, per il Governo Conte si rivela impossibile attuare una simile proposta, cioè la creazione a Torino dell’Istituto Italiano per l’Intelligenza Artificiale, promossa dall’allora Arcivescovo di Torino Cesare Nosiglia. Nonostante ciò, nel 2020, nello Stato del Vaticano, è stata promulgata la Rome Call for A. I. Ethics, un impegno siglato dalla Pontificia Accademia per la Vita, la FAO, alcuni players tecnologici, come IBM e Microsoft, e il Ministero dell’Innovazione italiano. Ai firmatari della Rome Call for A. I. Ethics, ricevuti successivamente da Papa Francesco, verrà sottolineata «l’importanza di garantire etica e rispetto allo scopo di evitare che un algoritmo possa arrivare a prendere decisioni sulla vita umana».

Secondo le considerazioni del Papa lo sviluppo tecnologico deve essere sempre al servizio della giustizia e della pace nel mondo. A tale scopo, il 12 aprile 2021, istituisce la Fondazione RenAIssance con personalità giuridica canonica pubblica. La Fondazione, senza scopi di lucro, con sede nello Stato della Città del Vaticano presso la Pontificia Accademia per la vita, ha «l’obiettivo di sostenere la riflessione antropologica ed etica delle nuove tecnologie sulla vita umana, promossa dalla Pontificia Accademia per la Vita». Per raggiungere questi obiettivi, la Fondazione RenAIssance, si propone di incoraggiare iniziative scientifiche e collaborazioni con Organismi Internazionali, Stati Sovrani, università, centri di ricerca, aziende private e pubbliche che sviluppano attività, servizi e studi nel campo dell’intelligenza artificiale per diffondere la Rome Call for A. I. Ethics, proprio come uno stakeholder (o portatore di interessi) organizzato.

Poiché è certo che il coinvolgimento degli stakeholder sia una componente fondamentale del G7, anche il Papa può essere invitato. Tuttavia, l’esistenza di “pubblici” e di rivendicazioni di “pubblicità” all’interno di “ente con personalità giuridica canonica pubblica” come la Fondazione RenAIssance indica già che uscire dalla classica dicotomia pubblico/privato può permettere di scoprire molti livelli pubblici. Per la storia giuridica della divisione tra pubblico e privato molti studiosi hanno evidenziato soprattutto le asimmetrie strutturali di potere “private”, cioè fuori dall’agenda pubblica/politica, che si possono imporre. Sia l’appropriata “divisione tra sfera pubblica e privata”, sia l’intervento legittimo o illegittimo dello Stato nelle associazioni e organizzazioni religiose “private”, sono tra le questioni più dibattute nella teoria e nella pratica giuridica e politica recente, particolarmente in Europa (Foner/Alba 2009).

Nel 2023 per la Rome Call for A. I. Ethics si impone anche un altro obiettivo: la necessità di superare i confini religiosi della Chiesa cattolica. A tale scopo, però, all’evento promosso dalla Fondazione vaticana RenAIssance, per la firma del documento, verranno invitati soltanto i rappresentanti di altre due religioni abramitiche: l’una dal Forum per la Pace di Abu Dhabi (Emirati Arabi) e l’altra dalla Commissione per il dialogo interreligioso del Gran Rabbinato di Israele. I tre leader religiosi presenti, l’Arcivescovo Vincenzo Paglia (presidente della Pontificia Accademia per la Vita), il rabbino capo Eliezer Simha Weisz (membro del Consiglio del Gran Rabbinato di Israele) e lo sceicco Al Mahfoudh Bin Bayyah (Segretario Generale del Forum per la Pace di Abu Dhabi, in rappresentanza dello sceicco Abdallah bin Bayyah, presidente del Forum per la Pace di Abu Dhabi e presidente del Consiglio emiratino per la Shariah Fatwa), hanno sottoscritto insieme il documento. In quell’occasione è stato annunciato e previsto un secondo step, con la firma delle religioni orientali in Giappone. Ad oggi questi accordi non fanno altro che confermare «una politica di stretta uguaglianza formale o legale ingiusta e dura in tutti i casi in cui gli Stati hanno sistematicamente o strutturalmente svantaggiato le religioni minoritarie o, detto in modo leggermente diverso, in cui il campo di gioco effettivo nel mercato religioso è stato massicciamente e ingiustamente modellato dai governi» (Bader 2010). Questi accordi si aggiungono alla storia degli Stati democratici, ricca di esempi di politiche e norme di regolamentazione giuridico-costituzionale a cooperazione selettiva, come nel caso dell’Italia, che permette alla religione di maggioranza di costruire e mantenere la propria posizione predominante.

Sempre nel 2023, alla 78esima Assemblea Generale delle Nazioni Unite, tenutasi a New York il 20 settembre, nel suo discorso, la presidente Meloni ha affermato quanto sia importante «garantire l’applicazione pratica del concetto di “algoretica”, cioè l’etica per gli algoritmi». La Presidente del Consiglio ha citato nel suo intervento la parola alla base della Rome Call for A. I. Ethics. L’algoretica è un termine che tenta di opporsi al dominio degli algoritmi e di indicare la necessità di studiare le loro implicazioni etiche derivanti dall’uso crescente dell’intelligenza artificiale.

Nella Città del Vaticano, proprio il 24 aprile 2024, Chuck Robbins, CEO di Cisco System Inc., rappresentante di un altro grande player tecnologico, si è unito all’appello per una algoretica che regoli l’intelligenza artificiale, offrendo competenza per l’infrastruttura e l’implementazione di questo progetto. In riferimento al temine algoretica va segnalato il collegamento alle costanti domande di eticità che si pongono nel libro di Salvatore Veca, Un’idea di laicità si fa necessario. L’autore ha tentato di interpretare in prospettiva politica la libertà democratica, per mettere sotto pressione il carattere laico o neutrale delle istituzioni e delle norme pubbliche, nei confronti del «pluralismo persistente delle credenze». Sono domande necessarie inoltre, per tentare di comprendere quanta possa essere l’autonomia dei decisori pubblici, e se questa possa rivelare «una preferenza o una dipendenza nei confronti di una singola dottrina comprensiva di valore religioso o etico». In accordo con il parere dell’autore queste domande di eticità «mirano ad ottenere dall’autorità politica la produzione e la tutela di comunità morali omogenee, che siano immunizzate rispetto alla diversità e al pluralismo degli stili di vita».

La sfida dell’intelligenza artificiale al confine tra attori privati e decisori pubblici diventa così un ottimo esempio della persistenza del problema della garanzia non solo formale del pluralismo religioso, con un’attenzione tanto necessaria quanto ignorata nei confronti delle minoranze. Nell’età del pluralismo religioso è necessario affrontare questo dibattito per meglio comprendere l’agire delle comunità religiose nello spazio pubblico, in rapporto alle numerose espressioni di libertà religiose che si manifestano nei vari ambiti della vita civile e politica. Non vi è dubbio che la funzione attuale della politica in relazione alle religioni stia proprio nella capacità di garantire i confini fra sfera privata e sfera pubblica, ma non si può svolgere degnamente questa funzione senza essere in grado di elaborare ciò che accade nella collocazione strutturale delle comunità religiose tra lo Stato e la società in Italia. A mio parere l’appello della Chiesa cattolica ai valori etici di fronte alle sfide dell’intelligenza artificiale si scontra di fatto – all’interno di una società italiana le cui esperienze religiose non si possono ormai definire se non in termini pluralistici – con le esigenze poste dalle comunità religiose diverse dalla cattolica. Qui faccio riferimento soprattutto alle comunità religiose, prive di accordi con lo Stato, che devono ancora oggi far riferimento a una legge fascista, la n. 1159/1929 sui culti ammessi, oppure devono adattarsi a vivere il vuoto legislativo derivante dall’assenza di una legge generale per la libertà religiosa e per tanto raramente attori da considerare nello spazio pubblico.

Proprio per questo l’invito del Papa a un evento politicamente così rilevante diventa occasione per porsi un interrogativo radicale: è lecito rivendicare un’etica per l’intelligenza artificiale a partire da una posizione di forza che nega o omette di occuparsi di un’etica concreta del pluralismo religioso?

Riferimenti:

https://www.vatican.va/archive/catechism_it/index_it.htm

https://www.g7italy.it/it/g7-il-presidente-meloni-annuncia-la-partecipazione-di-papa-francesco/

https://www.vaticannews.va/it/vaticano/news/2023-01/etica-dell-intelligenza-artificiale-l-impegno-delle-religioni.html

https://www.esg360.it/governance/rome-call-for-ai-ethics-2023-etica-e-innovazione-devono-superare-anche-i-confini-religiosi/

https://www.alpinadialexis.com/istituita-in-vaticano-la-fondazione-renaissance-che-si-occupera-dintelligenza-artificiale/


Gaza. Un crimine di massa guidato dall’intelligenza artificiale

Autore:

Nel libro Davanti al dolore degli altri, Susan Sontag ricorda che il bombardamento della città basca di Guernica ad opera dei nazisti nel 1937 (reso immortale dall’omonima opera di Picasso) indicato storicamente come avvio dei moderni bombardamenti aerei sui civili come target di guerra – che poi sarebbe continuato nella Seconda guerra mondiale, da Coventry a Dresda, da Hiroshima a Nagasaki, e in tutte le guerre successive – aveva avuto dei precedenti, non tanto nei teatri europei della Prima guerra mondiale, quanto nelle colonie europee. Soprattutto a cura degli inglesi: «Tra il 1920 e il 1924, la Royal Air Force, da poco istituita, bersagliò sistematicamente i villaggi iracheni – nel territorio che aveva ricevuto come bottino di guerra, insieme alla Palestina, dallo smembramento dell’impero ottomano sconfitto nella Grande guerra – in cui i ribelli potevano trovare rifugio con raid “portati avanti ininterrottamente, giorno e notte, su case, abitanti, raccolti e bestiame”, secondo la tattica delineata da un tenente colonnello della Raf». Ma l’opinione pubblica non inorridì, come accadde per la guerra civile spagnola, perché le stragi di civili non accadevano in Europa, non erano documentate, non morivano sotto le bombe cittadini europei, i cui governi “civili”, anzi, ne erano i carnefici (https://volerelaluna.it/in-primo-piano/2023/10/31/bombardamenti-un-po-di-storia/).

Mi sono tornate in mente queste pagine di denuncia sull’ipocrisia del dolore, sul doppio standard morale, sull’ineguale “dignità di lutto” – per dirla con un’altra autrice statunitense, ed ebrea come Sontag, Judith Butler – oggi che, dopo sei mesi di bombardamenti ininterrotti su Gaza da quel maledetto 7 ottobre 2023, il dolore israeliano per 1.200 vittime inermi e 250 ostaggi è stato moltiplicato (ad oggi) per trenta volte con il dolore per le inermi vittime palestinesi, che supera in orrore perfino la logica veterotestamentaria della vendetta (“occhio per occhio”), nella quale è stabilito un principio di proporzionalità della violenza di gran lunga superato. Eppure – mentre continua la reiterazione mediatica della visione delle vittime di Hamas del 7 ottobre – questa massa enorme di vittime palestinesi del “civile” governo israeliano, alle quali si aggiungono gli operatori delle Nazioni Unite (170, circa) e delle Ong (le ultime sono le 7 vittime internazionali del World central kitchen), non le vediamo, sono sottratte al nostro sguardo: possiamo solo immaginare ammassi di corpi straziati nascosti dietro il numero abnorme, crescente settimana dopo settimana. Soprattutto dopo la messa fuorilegge di Al Jazeera, l’unico media presente sul campo, che ha avuto decine di morti tra gli operatori, perché racconta da un punto di vista situato tra le vittime.

Come sia possibile questo altissimo numero di vittime civili, compresi i bambini, questa carneficina continua che non accenna a fermarsi, in un così breve lasso di tempo lo ha rivelato il giornalista Yuval Abram in due inchieste successive, pubblicate sulle testate indipendenti israeliane +972 e Local Call, svelando che questa “fabbrica di omicidi di massa” è guidata da programmi di intelligenza artificiale. La prima inchiesta, pubblicata il 30 novembre 2023 (e ripresa in italiano da Internazionale, 15-21 dicembre 2023), ha rivelato attraverso fonti di intelligence che «niente accade per caso. Quando una bambina di tre anni viene uccisa in una casa a Gaza, è perché qualcuno nell’esercito ha deciso che non era un grosso problema per lei essere uccisa, che era un prezzo che valeva la pena pagare per colpire un altro bersaglio. (…). Tutto è intenzionale. Sappiamo esattamente quanti danni collaterali ci sono in ogni casa». Questo accade attraverso «l’uso diffuso di un sistema chiamato Habsora (Vangelo), che si basa in gran parte sull’intelligenza artificiale e può generare obiettivi quasi automaticamente a una velocità che supera di gran lunga quanto era possibile in precedenza».

Ma mentre questo programma di IA è usato per contrassegnare come obiettivi edifici e strutture dalle quali secondo l’esercito operano i militanti di Hamas, la seconda inchiesta, pubblicata il 3 aprile 2024 (e ripresa in italiano dal manifesto, 5 aprile 2024), ha rivelato l’esistenza di un altro programma di intelligenza artificiale, chiamato Lavender (Lavanda), che produce a getto continuo liste di palestinesi da sopprimere. Non durante le battaglie, ma bombardando in casa, di notte, con le rispettive famiglie e quelle dei vicini. «L’esercito ha deciso che, per ogni giovane agente di Hamas segnalato da Lavender, era consentito uccidere fino a 15 o 20 civili. (…). Nel caso in cui l’obiettivo fosse un alto funzionario di Hamas con il grado di comandante di battaglione o di brigata, l’esercito ha autorizzato in più occasioni l’uccisione di più di 100 civili nell’assassinio di un solo comandante». Inseriti alcuni criteri minimi e generici nel programma per “riconoscere” presunti affiliati ad Hamas, «fonti hanno affermato che se Lavender avesse deciso che un individuo era un militante di Hamas, gli sarebbe stato essenzialmente chiesto di trattarlo come un ordine, senza alcun obbligo di verificare in modo indipendente il motivo per cui la macchina aveva fatto quella scelta o di esaminare i dati grezzi di intelligence su cui si è basata». Con tutte le “vittime collaterali” conseguenti, in produzione seriale.

Siamo al totale disimpegno morale della componente umana e della sua intelligenza emotiva: all’IA è demandata la generazione continua di liste dei sommersi, senza salvati tra coloro che gli stanno vicino. I carnefici, a tutti i livelli, diventano meri esecutori di un crimine di massa, guidato dalla macchina. Una nuova forma, artificiale, di “banalità del male”. Una distopia, tecnologica e realizzata – contro la quale, tra le altre cose, si battono gli studenti che nelle università chiedono l’annullamento di contratti che prevedano accordi di ricerca tecnologica a fini bellici – che, mentre moltiplica e nasconde le vittime, fa impallidire sia Guernica quanto a numero di morti sia le distopie futuristiche di Black Mirror.

L’articolo è tratto, in virtù di un accordo di collaborazione, da Comune-info


Uno spettro s’aggira per l’Europa, l’intelligenza artificiale

Autore:

Il Parlamento e il Consiglio europeo hanno recentemente approvato il Regolamento che «stabilisce regole armonizzate sull’intelligenza artificiale». Si attende ora la sua pubblicazione nella Gazzetta Ufficiale europea mentre è in corso una non semplice revisione linguistica di un testo che, letto e riletto, non si presenta di facile comprensione; non a caso la premessa al testo è composta da ben 180 considerazioni tese a spiegare i 113 articoli e i 13 allegati. Una volta pubblicato il Regolamento è prevista una fase di transizione, di entrata in vigore graduale che durerà tre anni.

L’attuale definizione del sistema di intelligenza artificiale (IA) prevede un sistema automatizzato «che, per obiettivi espliciti o impliciti, deduce dall’input che riceve come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali» mentre nel testo della proposta del 2021 della Commissione veniva indicato come sistema di IA «un software che, per una determinata serie di obiettivi definiti dall’uomo», può generare output. Il carattere “antropocentrico” richiamato all’articolo 1 del Regolamento non è garantito da una decisione umana ma dalla elaborazione che farà il sistema automatico. L’uomo avrà il compito di controllare la coerenza con questo principio. Il metodo per garantire questo controllo dovrà avvenire seguendo l’ormai lunga consuetudine della formulazione di norme vincolanti da rispettare nel caso in cui si immettano sul mercato merci che possono provocare un danno all’uomo o all’ambiente. L’intelligenza artificiale è, dunque, una merce.

Nell’esaminare il testo mi è ritornata in mente, per antico mestiere, la normativa europea sull’immissione nel mercato di attrezzature di lavoro, la “direttiva macchine” ai tempi, oggi un regolamento: indicazione dei criteri di sicurezza da rispettare, autocertificazione e marcatura CE, sistema pubblico di governance e vigilanza. Questa struttura si ripresenta nel Regolamento sull’intelligenza artificiale solo che, tra i rischi che devono essere considerati, ci sono quelli che possono provocare danni ai diritti di dignità, libertà, uguaglianza, solidarietà, cittadinanza e giustizia come indicati nella Carta dei Diritti dell’Unione Europea. Nel testo viene poi richiamata anche l’esigenza di considerare i rischi per la democrazia.

La ragione della soppressione dalla definizione di IA delle parole «per obiettivi definiti dall’uomo» attiene alla diffusione dei nuovi sistemi di intelligenza artificiale che vengono chiamati «modello di IA per finalità generali», un modello di IA addestrato con grandi quantità di dati, utilizzando l’autosupervisione su larga scala. Gran parte delle integrazioni e correzioni al testo originario del 2021 si propongono di meglio definire questo sistema e di introdurre norme per evitare danni all’uomo, all’ambiente naturale e sociale (e alla democrazia).

L’immissione sul mercato europeo di tali sistemi considera, infatti, il loro grado di pericolosità e li suddivide in sistemi vietati, che non possono circolare, e sistemi ad alto rischio, che invece possono circolare alle condizioni indicate nel Regolamento.

Sono vietati i sistemi che si propongono di manipolare il comportamento umano e di discriminare le persone utilizzando registrazioni, classificazioni e banche dati, avvalendosi della registrazione, soprattutto da remoto, di dati biometrici, immagini facciali, sguardi e conversazioni. Per le attività di contrasto, le indagini di polizia e quelle giudiziarie, sono previste delle deroghe a questo divieto, ma per l’uso ci dovrà essere sempre un’autorizzazione di un giudice in presenza di reati di particolare gravità, dal terrorismo al traffico di esseri umani e alla criminalità organizzata.

È prevista invece la circolazione nel mercato europeo di «sistemi di IA ad alto rischio» che si propongono: in un primo caso, una azione sul mercato o come parte di attrezzature e strumenti per il lavoro e la vita sociale indicati da uno specifico allegato (dalle macchine ai mezzi di trasporto per fare un esempio); in un secondo caso, la registrazione, archiviazione, classificazione e uso di dati, ciascuno dei quali indicato con una definizione: dati biometrici, identificazione biometrica, verifica biometrica, categorie particolari di dati personali, sistema di riconoscimento delle emozioni, sistema di categorizzazione biometrica, sistema di identificazione biometrica in tempo reale e a posteriori. Insomma, sguardi, zigomi, smorfie, termini usati, scritti che passano attraverso un server, una volta archiviati possono essere rielaborati e proposti sul mercato come aspettative, desideri e comportamenti prevedibili (elaborati da IA). È un mercato che coinvolge miliardi di esseri umani. Conviene ricordare Larry Page, uno dei fondatori e CEO di Google: «La nostra ambizione più grande è trasformare l’esperienza che offre Google rendendola meravigliosamente semplice, quasi automagica nel comprendere che cosa vuoi e offrirtelo immediatamente».

In entrambi i casi un sistema IA GTP (trasformatori generativi pre-addestrati basati su reti neurali) a un certo punto si autoalimenta e costruisce autonomamente delle “inferenze”. Per questo deve esserci un sistema di sorveglianza degli utilizzatori che corregga o blocchi un sistema che va fuori controllo. È prevista una sorveglianza umana e ogni utilizzatore (deployer) ha il dovere di indicare le persone particolarmente esperte che devono svolgere questo compito.

Paradossalmente, almeno per chi scrive, è prevista una alfabetizzazione all’uso di questi sistemi svolta solo dai fornitori e dagli utilizzatori della IA, con il rischio di una divisione culturale e sociale tra burattini e burattinai, per dirla con Shoshana Zuboff (Il capitalismo della sorveglianza. Il futuro dell’umanità nell’era dei nuovi poteri, Luiss, University Press, 2023). I cittadini europei, come afferma la Carta dei diritti, non possono solo essere oggetto di tutela, ma devono essere protagonisti consapevoli nell’uso di strumenti che influenzeranno comunque il loro comportamento. Centri culturali, associazioni sociali e organizzazioni politiche hanno e avranno un ruolo importantissimo di diffusione di una nuova cultura della democrazia cognitiva ma dovranno superare la pratica della democrazia fondata pressoché esclusivamente sugli affari di alcuni e sul consenso passivo dei tanti.

Coerentemente con la preoccupazione sugli effetti negativi che può avere un uso non umano di esseri umani attraverso i sistemi di IA, le istituzioni europee hanno indicato, nella seconda parte del Regolamento, il sistema di governance che deve essere attuato sia nei singoli Stati che a livello continentale. Dovrà essere costituita una banca dati europea (e nazionale) dove sono registrate tutte le comunicazioni e i pareri di conformità dei sistemi IA immessi sul mercato, per poi seguire le evoluzioni che ognuno di questi potrà avere sempre attraverso la comunicazione (doverosa) di produttori e deployer delle eventuali variazioni e innovazioni che il sistema può determinare. Sono previsti gruppi di tecnici, in primis l’Ufficio per l’Intelligenza Artificiale della Commissione Europea, con compiti di monitoraggio e supervisione sia della diffusione di tali strumenti che di verifica e supporto alle competenti strutture che ogni Stato si deve dotare. Ed è prevista una forte centralizzazione della governance, probabilmente determinata dall’incertezza sulla reale efficacia delle norme contenute nel Regolamento, come ha affermato uno dei massimi dirigenti di una delle più importanti conurbazioni digitali e finanziarie: «ci muoviamo molto più velocemente di qualsiasi governo». La sfida è aperta.

La prima frase della premessa conferma che «il Regolamento dovrebbe lasciare impregiudicate le disposizioni volte a migliorare le condizioni di lavoro nel lavoro mediante piattaforme digitali», ma solo qualche settimana fa il Consiglio europeo ha affossato la direttiva sul lavoro tramite piattaforme (riders e non solo). Anche se viene vietato l’uso di sistemi di IA per «inferire le emozioni di una persona fisica nell’ambito del luogo di lavoro e degli istituti di istruzione», l’esperienza in atto, soprattutto nel settore della logistica, ci dice che gli atti di lesione della dignità del lavoratore sono piuttosto diffusi e difficilmente distinguibili e separabili dai sistemi di IA che l’Unione europea considera ad alto rischio quando utilizzati nel settore dell’occupazione, nella gestione dei lavoratori, per l’assunzione e la selezione delle persone, per la cessazione dei rapporti contrattuali di lavoro sino all’assegnazione dei compiti sulla base dei comportamenti individuali, delle caratteristiche o dei comportamenti personali.

Il responsabile del comitato italiano per l’intelligenza artificiale, padre Benanti, si pone la domanda se l’IA sia compatibile con la democrazia perché sicuramente sta già influenzando e influenzerà sempre di più i processi democratici. Shoshana Zuboff sottolinea come sia ormai aperta la contraddizione su chi potrà «sapere, decidere e decidere su chi decide». La contraddizione e il sempre meno latente conflitto sul futuro della democrazia economica e politica è di fronte a noi e ci chiede un significativo rinnovamento della cultura di chi si batte per un futuro migliore.


Clic senza frontiere: cosa c’è alla base dell’intelligenza artificiale

Autore:

Mi scuso con chi legge questo articolo perché era mia intenzione aprire alla grande con una congrua citazione marxiana dai Grundrisse, quella che si avvia con: «Der Krieg ist daher eine…». Poi ho assistito in TV a una pensosa trasmissione condotta dal noto filosofo con nome primaverile, Fiorello, e ho cambiato idea. Il pensatore ha introdotto la categoria post-postmoderna di Ignoranza Artificiale. A questo punto ho meditato. Grande LLM di GPR-3! Grandissimo PaLM-2 che è addestrato da 340 miliardi di parametri! Grandioso GPT-4 addestrato da un triliardo di parametri! Insomma, una meditazione cabalistica la mia, che decanta le stupefacenze dell’Intelligenza Artificiale (IA) e che avrebbe potuto anche stramazzare nella acerba e sconsolata recriminazione delle sue nefandezze: il degrado del lavoro, il mantra della sicurezza, l’ambigua affidabilità, le decisioni automatiche, i robot pigliatutto, il controllo panottico, la privacy sfasciata, le guerre dei monopoli tecnologici…

Proletario ignoto

Posso essere annichilito o eccitato dal vigente culto dell’IA, predicare Redenzione o Apocalisse, ma non riesco a sottrarmi all’Ignoranza Artificiale di cui disquisisce Fiorello il metafisico. Si tratta di quell’ignoranza applicata per cui vediamo i tipi che ci sfrecciano davanti in bicicletta con gerla colorata in spalle (cabassa, in piemontese) ma non li guardiamo per ciò che sono: proletariato al posto di lavoro, in sella a una bici.

Prendiamo un’azienda australiana, Appen Ltd, che ha come clienti Microsoft, Apple, Meta, Amazon, e Google fino a qualche giorno fa, sedi sparse in 170 paesi, Italia compresa, e più di un milione di… lavorator*? consulenti? intermediatori? hobbisti? freelance? nerd planetari? Tutta questa gente non è stipata in capannoni industriali, ma sta a casa o dove gli pare, a fare cosa? Lo spiega, senza cercare chissà dove, la voce di Wikipedia, autogenerata da Appen: «Affinché le macchine dimostrino l’intelligenza artificiale, devono essere programmate con dati di addestramento di fattura umana che le aiutino ad apprendere. Appen utilizza il crowdsourcing per raccogliere e migliorare i dati e ha accesso a un team qualificato di oltre un milione di lavoratori part-time che raccolgono, annotano, valutano, etichettano, testano, traducono e trascrivono dati vocali, immagini, testo e video per trasformarli in dati di training di machine learning efficaci per una gran varietà di scopi».

Nonostante la traduzione un po’ sgangherata si capisce che c’è bisogno di qualcuno che imbocchi l’algoritmo con l’omogeneizzato giusto. Ma l’algoritmo è famelico, richiede milioni di cucchiaiate. Se deve distinguere un neonato addormentato da un gatto, un cuscino, un pacco o qualsiasi altra seppur vaga somiglianza, gli tocca passare in rassegna una enormità di immagini in cui il neonato c’è o non c’è. Qualcuno le deve etichettare queste immagini: non sono gli ingegneri informatici a farlo né i linguisti computazionali, bensì lavorator* del clic-clickworkers portatori sani di Intelligenza Umana, che ottengono pochi spiccioli di remunerazione, attività a singhiozzo, tutele zero, un lavoro fatiscente. Sparsi e sparse per il pianeta, prevalentemente a Sud, ma non solo. Proletariato occultato di cui noi vantiamo una profonda Ignoranza Artificiale.

Se poi l’algoritmo deve distinguere tra marocchino in quanto cittadino del Marocco e marocchino in quanto bevanda miscela di caffè, cacao e latte, gli deve essere data in pasto una overdose di testi che qualche umano classifica e formatta stando attento a scartare la diffusa sentenza: marocchino di mrd. L’algoritmo così svezzato deve ringraziare il milione di formichine operaie umane che gli hanno fatto digerire la differenza fra i due marocchini. Se poi si tratta di immagini, la machine, l’algoritmo deve saper riconoscere non solo il neonato già evocato o un semaforo (giallo, verde, rosso, spento) o qualsiasi altra cosa, ma anche scene di violenza, stupro, pedofilia, razzismo… per filtrarle ed escluderle una ad una. Può farlo solo se qualche omino, m. e f., dopo averle accuratamente visionate frenando i conati di vomito, gliel’ha additate e ostentate. Aziende specializzate gestiscono questo addestramento dell’IA. Una sta in California e delocalizzava in Kenia il lavoro sporco per rimborsi miserabili e garantite débâcle psicologiche. Finché gli Umani Intelligenti di Nairobi si sono incazzati.

Gratta gratta alla base dell’IA c’è una estesa e capillare IU-Intelligenza Umana di cui quella artificiale non riproduce gli abissi di complessità, ma si accontenta, si fa per dire, di un gigantesco calcolo delle probabilità. Mai in passato la statistica era stata la base e il motore di una innovazione tecnologica così decisiva. L’idea che per ottenere IA fosse necessario copiare e riprodurre il funzionamento del cervello umano e il relativo linguaggio sapiens è morta solo tre decenni fa. Più l’algoritmo si rimpinza di testi, immagini, suoni, e più li potrà ricombinare autonomamente. È il deep learning, il pozzo senza fondo. Da qui la travolgente corsa all’oro dei dati. Un redivivo Pelizza da Volpedo non saprebbe dove trovare i modelli per un suo Quarto (o Quinto) Stato. Neanch’io. Sono milioni, invisibili e invisibilizzat*. La forza lavoro più astratta di tutti i tempi. Nella sua concreta corporeità.

L’amazzone e il turco

Il sonnambulismo della produzione occulta chi rende possibile gli incantesimi dell’IA. È attivo un sistema industriale pre-postfordista che gestisce questo proletariato inafferrabile e pre-postfordista: non è un errore di stampa perché l’apparato produttivo dei dati di addestramento-allenamento incorpora modi di produzione che sottintendono la servitù della gleba tutt’uno con quelli che incarnano il Capitalismo Cognitivo o, da altro versante, il Capitalismo delle Piattaforme.

Per accalappiare le formichine umane è necessario che abbiano una severa necessità di procurarsi un reddito o di integrare quello insufficiente che hanno. In quanto formichine devono essere adattabili a lavorini con compitini realizzabili in momentini. Quante finestre accese nei palazzi della via?” / ”oggi è una… giornata” ecc. Micro tasks per micro works, che evolvono ovviamente in compiti più complessi, su cui l’algoritmo si applica estraendo regolarità e anomalie da una smisurata quantità di casi. Le formichine sono indispensabili per la Grande Opera dell’IA. Se le contendono a suon di pochissimi centesimi grandi imprese del comparto digitale che al solito esternalizzano dove gli conviene. Ci sguazza, insieme a molte altre, una nota Amazzone e il suo Turco Meccanico di servizio. Al quale Turco andrebbe eretto un monumento in ogni borgo per ricordarci quanto siamo clamorosamente creduloni, noi e le élite che ci governano.

Il sultano del commercio mondiale, Jeff Bezos, lo sa e spinge per allargare e differenziare la forza lavoro necessaria all’IA, gli human contractors. In questa fase storica una rete densa di siti, piattaforme, aziende è all’opera per reclutare i lavoratori adatti ai diversi stadi di sviluppo dell’IA, un Caporalato tecnologico planetario di subappaltatori. Bisogna aggiornare, correggere, revisionare, indirizzare la machine. Per esempio, aggiustare l’IA quando ha, quasi fosse umana, le hallucinations ossia quando fornisce una risposta che si presenta come vera invece non lo è. Non sono i robot a intervenire, sono umani che sembrano robot.

Microlavoratori di tutto il mondo…

Facile a dirsi. Si tratta proprio di tutto il mondo. Uno sta a Bangkok, l’altra a Caracas, una a Gallarate, l’altro a Lagos. Stanno nelle loro enclosures, nei loro recinti domestici e non, aspettando che arrivi la comanda/commissione dalla Piattaforma. È questo Digital Labour che crea una quota notevole del valore dell’IA. I loro clic non sono neutri, come i miei, risalgono la catena produttiva e trasformano il dato finale in merce pregiata di cui il mercato globale si premura di esaltare meriti e virtù, dimenticando chi sta alle fondamenta. Pallidi tentativi di sindacalizzazione appaiono qua e là, incentivati dall’esempio della forza lavoro consorella, quella dei Food Riders. La nostra collettiva e personale IA, Infatuazione Artificiale, sorvola sulla fragilità del mito dell’Intelligenza Artificiale perché non vede né riconosce le solide basi di lavoro umano su cui è impiantata.

Nota: un’ampia letteratura accompagna e segue il fondamentale Schiavi del clic. Perché lavoriamo tutti per il nuovo capitalismo? di Antonio Casilli, Feltrinelli, 2020. Di questo testo è annunciata per l’autunno negli Stati Uniti l’uscita aggiornata. C’è da augurarsi che in tempi brevi segua l’edizione italiana.


Internet. La promessa tradita

Autore:

L’intelligenza artificiale incombe. Tra entusiasmi, illusioni, paure. Spesso con una parificazione alla magia. Per lo più senza una consapevolezza, anzitutto politica, del suo potenziale ruolo sociale, della sua portata, delle modalità di un suo governo razionale. Per contribuire a colmare questa lacuna, abbiamo deciso di lanciare qualche punto, qualche goccia nel mare. I primi contributi, di Davide Lovisolo e di Norberto Patrignani, possono leggersi in https://volerelaluna.it/societa/2024/02/20/la-saga-di-sam-altman-lintelligenza-artificiale-e-la-vittoria-del-profitto/ e in https://volerelaluna.it/societa/2024/02/27/fermiamo-i-robot-killer/. (la redazione).

«Governi del mondo industriale, voi stanchi giganti di carne e acciaio, io vengo dal Cyberspazio, la nuova casa della Mente. A nome del futuro, chiedo a voi del passato di lasciarci in pace. Non siete i benvenuti tra noi. Non avete alcuna sovranità sul luogo in cui ci riuniamo.[…] Stiamo creando un mondo in cui tutti possano entrare senza privilegi o pregiudizi dovuti alla razza, al potere economico, alla forza militare o alla posizione di nascita. Stiamo creando un mondo in cui chiunque, ovunque possa esprimere le proprie convinzioni, non importa quanto singolari, senza paura di essere costretto al silenzio o al conformismo» (John Perry Barlow, Una Dichiarazione di Indipendenza del Cyberspazio, Davos, Svizzera, 8 febbraio 1996).

Dicono che, per la Generazione Z, Internet sia sempre esistita. Invece l’abbiamo creata noi Boomer (nati negli anni ‘50). Ci ricordiamo bene com’era il mondo prima e l’entusiasmo con cui abbiamo accolto i primi vagiti della Rete e la sua crescita, in una stagione di straordinaria creatività e di grandi ideali civili. E ahimè sentiamo cocente la delusione per come è finita. Noi Boomer – ci mancherebbe altro – siamo perfettamente consapevoli dei regali che la Rete ci porta, e speriamo con tutto il cuore che, a furia di piegar proteine in modo inatteso, l’intelligenza artificiale generativa ci porti qualche magica pozione per ridarci qualche pezzettino della nostra scomparsa gioventù. Ma se ricordiamo come tutto sia partito, non possiamo evitare una delusione che non dipende solo dai nostri anni.

Ho citato la IA (Intelligenza Artificiale)? E allora, come Quentin Tarantino, cominciamo di qui, dalla fine. Abbiamo, in famiglia, comprato un nuovo frigorifero e questo, dopo il suo insediamento al posto del vecchio, ci ha chiesto, tramite la sua app così comoda per regolarne la temperatura, di essere collegato in rete. Perché? Perché il nostro frigo, oltre che far freddo, è un piccolo spazzino di dati. Li raccoglie e li manda al suo vero padrone, da qualche parte nel nostro est. Ci ha anche chiesto di essere informato sul cibo che gli mettiamo in pancia, ma qui ci siamo rifiutati. Ci è sembrato assurdo. La IA deep cook made in Cina non verrà addestrata con le nostre abitudini alimentari. Nel supermercato di beni di consumo dove ce l’hanno venduto troneggia, sul modello in esposizione, un grosso cartello: “INTELLIGENZA ARTIFICIALE”, che attira clienti che dentro di sé forse immaginano Cracco in persona sporgere loro dalla porta del freezer deliziosi manicaretti.

Perché il punto è proprio questo: la rappresentazione corretta della realtà, la consapevolezza. «Ogni tecnologia sufficientemente avanzata non si distingue dalla magia», diceva Arthur C. Clarke, grande scrittore di fantascienza. Una magia sì, ma soprattutto per i dominatori del mondo: la Rete è uno straordinario, magico fattore di concentrazione di potere e ricchezza.

Ma come siamo arrivati a parlare del mio frigo? Da un “LO” che viaggiò su cavi telefonici in rame 50 anni fa tra Stanford e Los Angeles, in California, lanciato da uno studente, Charlie Kline, e che perse per strada il “GIN” che se arrivato con il resto del messaggio avrebbe completato il ben noto prompt necessario per accedere a un computer: “LOGIN”. Il collegamento di qualche centinaio di chilometri cadde a metà del messaggio, ma l’era di Internet nacque.

A Torino, allo CSELT della Sip, e in altre decine di laboratori in giro per il mondo, si studiava per evitare che i collegamenti telefonici cadessero. Smisero, volenti o nolenti, quando arrivò la sferzata del pensiero laterale, la rivoluzione, la svolta a gomito verso la soluzione “altra”. Se il collegamento cade va benissimo che cada: si non potes inimicum tuum vincere, habeas eum amicum diceva Giulio Cesare. Cade perché gli square, come i genitori, sono privi di fantasia e creatività, ma noi si ha in testa ben altro: la rete di tutti al posto del filo del padrone. «Soyez réalistes, demandez l’impossible», scandivano poco prima gli studenti nelle piazze nel maggio di Parigi, mentre Bob Dylan in The times they are a-changin cantava «your sons and your daughters are beyond your command, your old road is rapidly agin».

C’era dietro il DARPA, lo si sapeva benissimo, ma pazienza! Furono Vinton Cerf e Robert Kahn nel 1974 con i soldi dei militari a inventarsi la trasmissione IN-sicura per definizione, il protocollo IP. Butta fuori il pacchetto e dimenticalo. Se arriva arriva, se no prima o poi, ma solo se veramente serve, il tuo computer capisce che si è perso e lo ri-trasmette con successo, grazie all’aiuto di altri computer. In cooperazione con i suoi pari. Al posto di collegamenti perfetti per dispositivi stupidi. Lavorando insieme per un fine comune. Uno vale  uno. Come nelle assemblee universitarie, tutti hanno in egual modo diritto di parola. Niente gerarchia. Non c’è chi detta legge, o poliziotti che la fanno osservare: le regole sono decise in comune e se non le osservi sei semplicemente, naturalmente out perché non sei mai entrato. Il baratto scaccia la moneta, se tu porti a destinazione i miei pacchetti io porto a destinazione i tuoi: il mutuo accordo al posto delle bollette telefoniche. È in questo modo, con un modello tecnico e organizzativo paritario e cooperativo, e con il drastico abbattimento dei costi dovuto alla tecnologia a pacchetti e allo scambio in natura, che si pavimenta l’autostrada per la comunicazione worldwide, rendendola liscia e scorrevole al di sopra dei buchi dei cavi in rame e in contrasto con la burocrazia e rigidità delle organizzazioni gerarchiche. Noi siamo la RETE, e dettiamo con il nostro successo planetario al mondo le regole e la tecnologia della nuova età dell’Acquario, noi forgiamo the Cyberspace, the new Home of Mind.

Ma noi Boomer, prigionieri  come gli abitanti della Flatlandia di Edwin A. Abbott di due sole dimensioni, ci dimenticammo della terza, quella verticale. I mattoni tra loro sono tutti uguali, ma le case con cui i mattoni sono costruite no: ci sono i tuguri e i castelli. Costruimmo strade lastricate perché la gente comunicasse liberamente, senza pensare che costruire belle strade di montagna per sviluppare l’economia dei paesi in quota in realtà li fa spopolare, perché la gente corre ad aggregarsi in città, dove trova negozi, luci e relazioni. Il livello sopra quello delle cose tutte democraticamente uguali è quello delle differenze. Delle asimmetrie, delle concentrazioni. Di ricchezza e di potere. Che nascono e si sviluppano proprio perché il  livello sotto permette l’azione anche di minime forze che fanno scivolare le cose sulla sua liscia superficie come pattinatori sul ghiaccio. Tanto più quanto più è vasto, fluido e lubrificato.

Albert-László Barabási nel suo libro Link usa una metafora illuminante per spiegare il fenomeno: una sala da ballo con il pavimento tirato a cera e nessun ostacolo nel mezzo. Su quel pavimento uno può liberamente andare dove crede e fermarsi dove gli pare. Entra il primo ballerino, vaga per un po’ e poi si ferma guardandosi intorno in attesa di compagni e della musica. Entra il secondo, e dove va? Va accanto al primo, a fare due chiacchiere. E così il terzo e il quarto etc. La gente si aggrega in gruppi invece di girellare in solitudine.

E poi – aggiungiamo noi, non Albert-László – qualcuno nota che il collante che aggrega i gruppi è fatto dai sentimenti, dalle opinioni e dagli interessi in comune. Si annota tutto, aggiunge altre informazioni sulle abitudini e sui bisogni, e commercia questi suoi appunti con chi per professione vende, e la sala  inizia ad essere inondata di messaggi pubblicitari su misura. Qualcun altro monta banchetti accanto ai gruppi per esporre e commerciare la propria mercanzia. Altri all’ingresso rispondono, dopo averlo scrutato per bene, alle domande di chi vuol sapere cosa succede dentro, facendosi pagare da quelli dei banchetti. La musica da ballo si è trasformata in refrain pubblicitari sparati a palla nella cacofonia di un enorme mercato. L’educato scambio di informazioni, le rispettose domande e le cortesi risposte dei primi ad entrare sono rimpiazzate dalle grida sguaiate dei mercanti. Come nella corsa all’oro si arricchiva chi vendeva pale e picconi, qui si arricchisce chi fa le trappole che ingabbiano la gente nei gruppi e gli endoscopi che la analizzano dentro. A dismisura, mentre sempre più gente si precipita nella sala per commerciare, per apparire e per farsi sentir dire con la menzogna dagli amici e da chi vuole il potere che ha sempre ragione. I coaguli si ingrossano sempre più, in una nebbia di innumerevoli, vaganti, minuscoli gruppetti che cercano la loro occasione di crescita. Se ci si mettesse a contarli e se ne diagrammasse le loro dimensioni, ne verrebbe fuori una curva che i matematici chiamano log-normale, la “lunga coda” di Internet: pochi, pochissimi siti con moltissimo traffico e poi giù giù, verso lo zero, molti, moltissimi siti con poche o pochissime visite. E le ricchezze e il potere seguono la stessa distribuzione, facendo esplodere le differenze nel mondo. Una innumerevole plebe di schiavi digitali che identifica gattini nelle foto per pochi spiccioli che debordano dalle mani ricolme di danaro di pochissimi e ricchissimi potenti.

Le reti auto-organizzanti, sia quelle biologiche – da quella neurale del verme Caenorhabditis Elegans a quella del Sapiens – che quelle sociali, si coagulano nei loro fluidi ambienti in pochi grandi nodi che emergono dal rumore di fondo grazie alle relazioni dinamiche che formano la loro trama. Questa è la verità profonda e universale che ci ha insegnato Internet. Noi sappiamo esattamente quando il nostro sogno è crollato. Come nelle soluzioni sovrassature, il soluto è precipitato detonato da uno shock: il Telecommunication Reform Act USA del 1996. Ha spalancato ai mercanti le porte della nostra sala da ballo e ne ha reso scivoloso il pavimento, ristabilendo in peggio i privilegi e le discriminazioni del passato. Al posto della nuova casa di tutti che noi pensavamo di costruire: we are creating a world where anyone, anywhere may express his or her beliefs, no matter how singular, without fear of being coerced into silence or conformity.

No, Internet non ci ha traditi. Siamo noi Boomer che non avevamo capito bene. C’è mancata la consapevolezza. Soprattutto quella politica, temo.


La saga di Sam Altman, l’intelligenza artificiale e la vittoria del profitto

Autore:

L’intelligenza artificiale incombe. Tra entusiasmi, illusioni, paure. Spesso con una sua parificazione alla magia. Per lo più senza una consapevolezza, anzitutto politica, del suo potenziale ruolo sociale, della sua portata, delle modalità di un suo governo razionale. Per contribuire a colmare questa lacuna, abbiamo deciso di lanciare qualche spunto, qualche goccia nel mare iniziando con un contributo di Davide Lovisolo a cui altri faranno seguito nei prossimi giorni. (la redazione).

Il 17 novembre 2023, le agenzie di stampa e molte riviste internazionali fra cui Nature (Jones, N., Nature 2023, 623:899) riportavano una notizia abbastanza sensazionale: OpenAI – la società che ha sviluppato il bot (o programma) di intelligenza artificiale (IA) che nel giro di pochi mesi ha invaso il mondo e le nostre teste, ChatGPT – aveva licenziato il suo CEO e leader, Sam Altman. Ma le notizie sensazionali erano appena cominciate: cinque giorni dopo, e dopo vari colpi di scena, OpenAI annunciava che Altman tornava al timone. Altman, cofondatore di OpenAI, aveva gestito l’ingresso di Microsoft nella società con un investimento di 13 milioni di dollari. Il Consiglio di amministrazione che lo aveva buttato fuori non aveva dato giustificazioni dettagliate, accusandolo di non essere sempre trasparente nelle comunicazioni con il Consiglio, ma aggiungendo successivamente che non c’erano in ballo questioni di illeciti finanziari o di sicurezza.

La rivista MIT Technology Review ha dedicato molti articoli alla vicenda, che utilizzeremo, insieme ad altre fonti, per cercare di capire il significato di questo scontro.

OpenAI è stata fondata nel 2015 come organizzazione non profit, ma nel 2019 si è trasformata in società capped profit, cioè che può fare profitti fino a un certo tetto: secondo molti osservatori, è una foglia di fico per coprire la transizione ad un’impresa full profit. In realtà è una società non profit che possiede un’impresa profit con un bilancio annuale di 1 miliardo di dollari.

In seguito al licenziamento di Altman, la Microsoft (che usa la tecnologia di OpenAI nel suo motore di ricerca Bing e ha altri sviluppi in corso), gli aveva offerto un posto per coordinare un nuovo gruppo di ricerca sul tema; ma intanto centinaia di dipendenti di OpenAI avevano firmato una lettera minacciando di seguire Altman. E così Altman è tornato al suo posto, il Cda è stato rimaneggiato e alcuni membri, probabilmente quelli più critici, sono stati esclusi. Uno degli aspetti tragicomici della vicenda è che il membro del CdA che aveva capeggiato il licenziamento di Altman, Ilya Sutskever, nei giorni successivi ha firmato anche lui la lettera in cui si minacciava di seguire Altman se non veniva reintegrato, dichiarandosi dispiaciuto per l’accaduto (What does OpenAI’s rapid unscheduled disassembly mean for the future of AI? | Nieman Journalism Lab (niemanlab.org) ). Ciò dice molto sull’ambiente in cui si lavora a questi giocattoloni: o ci sono seri problemi di comportamento, oppure enormi pressioni (più probabilmente entrambe le ipotesi sono vere). Un’altra fonte (The OpenAI Drama Has a Clear Winner: The Capitalists – The New York Times (nytimes.com)) riporta che i firmatari hanno scritto che il CdA aveva informato i capi progetto che dissolvere l’impresa era coerente con la sua missione: se questa era produrre tecnologia “buona”, e c’era il rischio di produrne di “cattiva”, era meglio chiudere. E ciò era, per i firmatari, inaccettabile. Un altro commentatore ha descritto i dipendenti di OpenAI come coinvolti in un’adesione messianica, al confine del fanatico (The Inside Story of Microsoft’s Partnership with OpenAI | The New Yorker). Tutto ciò getta una luce inquietante sugli individui e le organizzazioni che stanno lavorando al nostro futuro. In questi di giorni di caos, chi ha gestito il gioco su più tavoli è stata Microsoft, che alla fine ha vinto. Avrebbe vinto comunque fossero andate le cose, o imponendo al CdA di OpenAI di rimangiarsi tutto o prendendosi Altman e praticamente tutti i dipendenti e di fatto soffocando la sua controllata. D’altra parte, OpenAI è stata valutata attorno a 80 miliardi di dollari, e non era mica roba da lasciarsi scappare di mano.

La sostanza dello scontro era fra chi vuole rallentare, e creare strumenti che controllino possibili deviazioni dell’IA e chi dice che son tutte storie, sono i soliti problemi di qualunque sviluppo tecnologico (What’s next for OpenAI | MIT Technology Review). Non profit vs. profit, un po’ schematicamente. E alla fine la cultura profit ha vinto, come vedremo meglio più sotto, nella migliore (…) tradizione delle imprese della Silicon Valley. Tutto questo in un quadro di fortissima competizione, che ha visto altri, fra cui Google, con il suo bot Bard a lanciarsi nella corsa nella primavera scorsa (GPT era stato lanciato a fine 2022). Amazon è stata ovviamente della partita, con il suo prodotto, Titan, ma anche aziende minori stanno lanciando i loro prodotti. Tutte comunque si basano sulle enormi e costosissime capacità di calcolo fornite da tre società: Google, Microsoft e Amazon. Solo e sempre loro, con i conseguenti esiti certi (non li definirei rischi) di creare un ambiente ancora più monopolistico.

Questo quadro alimenta ulteriori spinte all’accelerazione. Il pericolo maggiore, quello che gli osservatori più attenti paventano è l’immissione nel mercato di prodotti che nessun organo collettivo ha preventivamente esaminato dal punto di vista dell’impatto generato e prima che la gente capisca davvero come funzionano, quali sono i possibili usi e abusi, con gravi rischi per la società (meccanismo non nuovo nel turbocapitalismo, e foriero della maggior parte dei guai che ci affliggono, a parere dello scrivente). La spinta a mantenere il dominio porta ad una competizione tossica. «È una corsa verso il fondo» ha scritto un’osservatrice esterna. Un altro commentatore ha detto: «se la corsa è a fare un’auto che vada il più veloce possibile, la prima cosa da fare è eliminare i freni» (Jones, N., Nature 2023, 623:899 ).

Un articolo del New York Times (The OpenAI Drama Has a Clear Winner: The Capitalists – The New York Times (nytimes.com)) ha ricostruito alcuni aspetti dello scontro: da una parte, la IA è solo un nuovo strumento tecnologico, nelle serie che va dalla macchina a vapore al computer; se usato correttamente, può aprire una nuova era di prosperità e far fare un sacco di soldi a chi ne sfrutta il potenziale; dall’altra ci stanno quelli che vedono la IA come qualcosa di alieno, un leviatano emerso dal mondo delle reti neurali, che deve essere tenuto a bada e utilizzato con estrema cautela per evitare che ci prenda la mano e ci faccia fuori. I membri del CdA che hanno tentato di buttare fuori Altman appartenevano a questa squadra, avendo l’idea che in agguato ci sia il rischio del momento in cui si crea la singularity, un punto a cui l’IA supera la nostra capacità di controllarla. OpenAI è stata fondata con l’obiettivo di sviluppare un sistema di intelligenza artificiale generale (AGI), in grado cioè non di svolgere uno specifico compito, ma di essere intelligente a tutto campo, come una persona. Se ciò sia realizzabile o no è tuttora oggetto di accese discussioni, ma intanto il rischio è che gli strumenti sviluppati a un ritmo sempre più frenetico possano essere usati in maniera dannosa, per creare malinformazione, ricatti, armi bioterroristiche; sicuramente, poiché lavorano basandosi sui dati esistenti, tendono a rinforzare ingiustizie sociali e diseguaglianze. Su tempi più lunghi, i timori sono di un sistema che sviluppa sufficiente potere di controllo per guidare il mondo in una direzione malvagia (come se ce ne fosse bisogno). Sembra fantascienza ma non lo è: la minaccia di una IA che nessuno può più “spegnere” e che inneschi una spirale distruttiva è reale.

Nella sintesi del New York Times: «Team Capitalism won. Team Leviathan lost» (Il capitalismo ha vinto, le paure del leviatano hanno perso). E secondo l’articolista, forse l’esito era inevitabile: una tecnologia del genere non può essere lasciata in mano a chi vuole rallentarne lo sviluppo – non quando ci sono tutti questi soldi in gioco. Verrebbe da aggiungere: se lo scontro si presenta come una battaglia fra gli “utopisti” del capitalismo e chi ha paura dell’innovazione, la guerra è persa in partenza. Vicende come queste dovrebbero far riflettere sulla drammatica necessità di un diverso modello economico e di relazioni sociali, che vuol dire anche come si produce innovazione, a chi è diretta, chi la controlla, e così via.

L’articolo del New Yorker (The Inside Story of Microsoft’s Partnership with OpenAI | The New Yorker) aggiunge altri particolari e altre considerazioni al quadro. Sugli scontri interni alla società, voci ben informate segnalavano che Altman era considerato molto abile a mettere gli uni contro gli altri, un comportamento definito “scivoloso”, con un controllo dell’informazione sia paese che occulto. L’articolista scrive che non era chiaro se i membri de CdA, che hanno preparato l’estromissione in segreto, per prendere tutti di sorpresa, fossero più spaventati dai computer troppo intelligenti o dal rischio che Altman partisse per la tangente. In realtà avevano completamente sbagliato valutazione, pensando che Microsoft avrebbe accettato la loro mossa. Ma come abbiamo già detto, gli interessi in ballo erano troppo grossi. Oltre all’investimento iniziale, Microsoft possiede circa il 50% del ramo profit, e non a caso. La compagnia sta incorporando tutta una sere di “assistenti” avanzati basati sulla tecnologia OpenAI nei suoi prodotti di base, come Word, Outlook, e PowerPoint. Questi software, versioni più specializzate e anche più potenti del pubblicizzato ChatGPT, sono stati chiamati “Office Copilots”. Sono in grado di scrivere un intero documento a partire da semplici istruzioni. Possono seguire una videoconferenza e fornirne un riassunto in più lingue, possono ricordarti che hai già scritto qualcosa di simile in passato e proporti di riutilizzarlo, e così via. Non li vediamo ancora sui nostri computer perché per ora Microsoft li ha distribuiti ai grossi clienti, anche per verificarne l’accoglienza e raccogliere suggerimenti su come modificarli e migliorarli.

Il responsabile della tecnologia di Microsoft, Kevin Scott, ha preso atto delle preoccupazioni dei membri del CdA che hanno tentato di far fuori Altman, e le ha incorporate in una strategia che mira ad andare avanti comunque, ma appunto con cautela, facendo sì che la nuova tecnologia entri un poco alla volta nelle abitudini degli utilizzatori, a cominciare dalle operazioni più banali e ripetitive; la sua idea è di fornire strumenti che consentano al sistema di interagire con utenti non esperti con un linguaggio semplice ed accessibile, con una certa trasparenza nell’informazione. Microsoft ha creato una divisione “Responsible A.I.”, con circa 350 (!) programmatori, avvocati ed esperti di policy, con l’obiettivo di costruire una IA “che vada a beneficio della società” e di prevenire conseguenze negative. I Copilots, così chiamati per mettere l’accento sul fatto che non son autonomi ma al servizio dell’utente, conterranno molti messaggi che segnaleranno la necessità di controllare eventuali errori o deviazioni.

Questo dà un’indicazione di come intende muoversi il mastodonte: avanti dritta, ma con qualche cautela. Scrive il New Yorker: «L’IA continuerà a infilarsi nelle nostre vite, a una velocità sufficientemente graduale per essere compatibile con le preoccupazioni dei pessimisti a breve termine, e con la capacità degli umani di assorbire l’uso di questa tecnologia». Riguardo al rischio che il sistema prenda la mano – e che la crescita incrementale ci impedisca di accorgercene se non quando sarà troppo tardi – Scott e collaboratori pensano di poter controllare il processo. Per prevenire questo rischio, prendendo sul serio almeno in parte i timori che muovevano Sutskever, hanno creato un gruppo che si occupa del cosiddetto “superallineamento” (Now we know what OpenAI’s superalignment team has been up to | MIT Technology Review). Si parte dalla convinzione che prima o dopo le macchine supereranno gli umani. Il problema è secondo loro, come allineare questi sistemi superintelligenti al nostro livello. In pratica, i collaudatori valutano le risposte di un modello, dando voti positivi a quelle che vogliono ricevere e negativi a quelle che non piacciono. Il feedback serve a insegnare il modello a “comportarsi bene” e a dare solo riposte accettabili. Ma tutto ciò è piuttosto rozzo e ingenuo, se così si può dire: si usa un programma più vecchio (e più semplice) per dire a quello più potente cosa deve e non deve fare, simulando l’umano stupido che istruisce la superintelligenza. E se la superintelligenza fa cose che gli umani non riescono a capire e a valutare? Sutskever sostiene che potrebbe anche nascondere il suo vero comportamento agli umani… Allora, saltiamo tutti giù dalla barca? No, dice Microsoft, ci sono soldi a volontà. E ha annunciato un nuovo fondo di 10 milioni di dollari dedicato specificamente a finanziare singoli e istituzioni che vogliano lavorare al supreallineamento. Con i soldi si fa tutto, e tanti auguri a tutti noi.

Per concludere, un articolo di The Nation (The Antitrust Lessons of the OpenAI Saga | The Nation) affronta un altro aspetto, di valenza più generale (si fa per dire): la potenza del capitale monopolistico e la sua capacità di sfuggire i controlli. La vittoria del Ceo di Microsoft, Satya Nadella, nel braccio di ferro con i ribelli significa che potrà mantenere un accesso esclusivo alla tecnologia della controllata, solo apparentemente sopravvissuta come entità indipendente, con un controllo sempre più stretto sul futuro della IA. E questo ha fatto suonare campanelli di allarme in chi si occupa di antitrust. Microsoft non aveva interesse ad acquisire OpenAI per controllarla, in quanto aveva già in mano tutte le licenze esclusive e le chiavi di acceso dell’azienda alla sua infrastruttura di calcolo. Aveva solo da perdere: è molto più facile considerare un’azienda responsabile di quello che fa tramite i suoi dipendenti e la sua struttura, rispetto al caso in cui si tratti di azioni di contractors formalmente indipendenti. Più la catena di fornitura è lunga e complessa, più la capofila può operare con ampia impunità. Con Altman di nuovo al suo posto, Microsoft ha stretto ancora di più il controllo su OpenAI, con un efficace scudo che la mette al riparo legale dai guai che la controllata potere combinare. L’articolo mette in risalto come questa sia una strategia comune per la grandi Corporations: è il vertical outsourcing, opposto ai vertical mergers: nel secondo caso i grandi colossi sono esposti a molti più problemi (ad esempio i tentativi di organizzare rappresentanze sindacali), mentre nel primo possono in ogni momento rescindere il contratto con un subfornitore che abbia accettato il sindacato (come ha recentemente fatto Amazon con un suo contractor). La stessa Microsoft ha recentemente dovuto accettare un accordo con col sindacato per portare i lavoratori di un subfornitore alle sue dirette dipendenze, con grossi vantaggi per i lavoratori. Ma appena possono, Ie imprese scelgono la strada della non responsabilità. E, a chiusura di questa storia, questo è un altro aspetto della guerra delle grandi multinazionali alla democrazia economica.


L’intelligenza artificiale e uno stravagante racconto di Primo Levi

Autore:

Quando si fa cenno al tema dell’intelligenza artificiale – da sempre invisa agli uomini, perché si teme che possa sostituirsi a quella umana – la mente va subito alle Storie naturali di Damiano Malabaila (alias Primo Levi), uscite per Einaudi più di mezzo secolo fa, nel 1966. In questi brevi racconti, infatti, lo scrittore torinese anticipa potenzialità e limiti della moderna biotecnologia. Tra quelle storie ce n’è una che, forse meglio delle altre, evidenzia quei timori, anche attraverso l’immancabile vena leviana dell’ironia e dell’umorismo: Alcune applicazioni del Mimete, che è la continuazione di un precedente racconto, L’ordine a buon mercato.

La particolarità di questo racconto alquanto strano consiste nella cura con cui Levi tratteggia il profilo del protagonista, il ragionier Gilberto Gatti. Nell’autore si avverte in effetti una certa preoccupazione nel voler delineare il carattere di questa persona, nient’affatto strana, e ciò al punto da sottolineare più di una volta alcuni suoi tratti distintivi. Gilberto, viene infatti ribadito, “è un figlio del secolo”, “è un simbolo del nostro secolo”. Il secolo che anziché, come ci si attendeva dalle grandi esposizioni universali, far sbocciare la blaue Blume, il fiore azzurro novalisiano della pace e dell’amore ineffabile, ha visto invece rapidamente attecchire, nascere e diffondersi in profondità, in tutti i campi recintati d’Europa, il bulbo contagioso, il fiore del male e dell’odio nefando. E dice bene a tal riguardo Giovanni Tesio quando, esaminando alcuni manoscritti di Levi, ritiene che alcune delle “innaturali Storie naturali” erano già contenute nella Tregua all’inizio degli anni Sessanta (Primo Levi. Ancora qualcosa da dire, Interlinea 2018).

Il trentaquattrenne Gilberto Gatti «è un bravo impiegato […]. Non beve, non fuma, e coltiva una sola passione: quella di tormentare la materia inanimata». Amante di cibernetica e di elettronica, con la mania di montare e smontare sempre tutto, a causa del suo egocentrismo egli rappresenta «un uomo pericoloso, un piccolo prometeo nocivo: è ingenuo e irresponsabile, superbo e sciocco». All’occorrenza sarebbe capace «di costruire una bomba atomica e di lasciarla cadere su Milano ‘per vedere che effetto fa’». In ragione del suo egotismo è poi «organicamente incapace di occuparsi del suo prossimo, ed è invece offeso e stupito quando il suo prossimo non si occupa di lui». Si potrebbe forse dire che, per la sua competenza specifica, per la sua distanza dal sociale e quindi per la sua opacità sindacale, Gilberto sia una sottospecie pervertita di Libertino Faussone, poiché, a differenza di quest’ultimo, il ragioniere, sicuramente meno nobile, meno responsabile e meno serio del montatore di tralicci, non sa trarre dignità, libertà e felicità dal rapporto con il proprio lavoro.

Essere figli del secolo intorno alla metà degli anni Sessanta significava per Levi essere affetti da erostratismo (il nome deriva da Erostrato, un vecchio pastore greco del IV secolo a.C.), cioè dall’insana tendenza a commettere le peggiori nefandezze solo per rendersi famosi, per farsi ricordare da tutti, per passare alla storia, per cercare in qualunque modo, anche nel male, di immortalare se stessi e la propria immagine, per compiere in particolare misfatti solo “per vedere che effetto fa”. Ma – ci domandiamo – se quella inclinazione era in auge già allora, cioè sia mezzo secolo fa sia al tempo dell’antica Grecia, che dire oggi, nell’epoca dello smartphone?

Al di là della stravaganza, Levi cerca insomma di sottolineare in quella vicenda la pericolosità insita nell’irresponsabile esibizionismo di un uomo all’apparenza normale come Gilberto Gatti. Un uomo che – esordisce la voce narrante (un tipo come Levi d’altronde, visto che anche lui è un chimico) – non dovrebbe mai, assolutamente mai, venire in possesso del nuovo ritrovato della tecnica, il Mimete, un duplicatore tridimensionale. Si tratta di un’anticipazione dell’attuale Stampa 3D, grazie alla quale si possono realizzare, per sottrazione o per addizione di materiale, oggetti tridimensionali acquisendo le immagini con uno scanner 3D. Proprio a causa della sua rischiosità, infatti, il Mimete verrà ritirato dal commercio con un decreto solo dopo tre mesi dalla sua immissione sul mercato. Esso avrebbe dovuto essere adoperato rispettando certe regole, precisi parametri e limiti, ma potenzialmente era capace di duplicare qualunque cosa di qualsiasi grandezza. Ed è probabilmente per aver fatto qualche “porcheria”, smanettando un po’ troppo con il suo Mimete, per non aver cioè osservato le regole sancite da quel decreto, che il narratore stesso si farà alcuni giorni di carcere. Malgrado ciò egli temeva qualcosa di peggio: paventava che quello strumento potesse finire nelle mani del suo amico Gilberto, il quale, per il suo erostratismo, sarebbe stato capace di combinare ben altri disastri. Riuscendo infatti inspiegabilmente a farsi recapitare dalla ditta costruttrice – la NATCA, la stessa che progetta e produce cervelli elettronici (Minibrain), strumenti a ultrasuoni per strumentalizzare il volo delle libellule, persino congegni per misurare la bellezza (Calometri), apparecchi per creare versi (Versificatori), addirittura Turboconfessori –, riuscendo quindi a farsi arrivare a casa una maggiore quantità di materiale duplicante (il pabulum, una misteriosa miscela per l’alimentazione dell’apparecchio), e costruendosi lui stesso un macchinario più grande in cui inserire quel materiale, Gilberto duplica la moglie, e, per ovviare ai problemi che gli comporterà la doppia consorte, deciderà persino di auto-duplicarsi.

«Leggere Levi non è mai tempo perso», osserva giustamente ancora Tesio in quel suo saggio già citato. E oggi vale sicuramente la pena rileggere questa breve storia naturale di Levi, non solo per rilevare la sua veggenza, la sua capacità di cogliere semi distopici all’interno dell’utopia ottimistica del progresso, del tanto decantato boom economico-industriale; non soltanto quindi per ravvisare un vizio, una radice maligna e contagiosa in seno alla bella forma delle istituzioni e dei progetti umani, ma soprattutto per mettere in guardia le nostre società contemporanee da uomini normali come Gilberto Gatti, i quali solo per vedere che effetto fa un certo esperimento e per soddisfare in tal modo il proprio egoismo malsano, non esitano a mettere a repentaglio la vita degli altri, anche quella dei loro stessi familiari. È importante quindi rileggere questo racconto perché oggi, meglio e più di ieri, la tecnologia mette a disposizione strumenti che favoriscono l’erostratismo. Non solo. Se da un lato questi dispositivi stimolano l’esibizionismo, dall’altro funzionano come una specie di anello di Gige, il monile che nel mito greco rendeva invisibili coloro che lo possedevano; e nessuno, ammoniva Platone nella Repubblica, saprebbe resistere e rinunciare al godimento che procura un tale potere. Sicché oggi, grazie a internet, il modello Erostrato esorta a quel protagonismo che non esita a violentare gli altri pur di affermare se stessi (anche solo per un quarto d’ora), e al contempo il modello Gige incita e consente di esercitare la violenza garantendosi l’anonimato (come nel cyberbullismo). In entrambi i casi, come si vede, una quota di violenza viene raggiunta, in modo palese o occulto, direttamente o indirettamente, volontariamente o involontariamente. Anche se il soggetto violento – lo vediamo sempre più spesso nelle nostre città e nel nostro tempo – non ama restare troppo tempo all’ombra e, scalpitando, ricerca sempre qualcuno che possa legittimarne l’azione violenta.

Pertanto, se uno Stato non considerasse il dialogo e la diplomazia come mezzi efficaci e sufficienti per risolvere i contrasti con altri Stati o con un avversario interno, se esso non ripudiasse la guerra, a quale migliore strumento di formazione e di persuasione di massa potrebbe ricorrere se non a internet e all’intelligenza artificiale? Prima o dopo ci sarà sempre qualcuno, un Gilberto Gatti qualsiasi che, tutelato e stimolato per tempo nel suo dannoso egoismo, si sentirà disponibile alla fine a premere un certo pulsante, anche solo un grilletto, solo per vedere l’effetto che fa.


L’intelligenza artificiale in tribunale: la denuncia del New York Times

Autore:

Il New York Times fa causa a OpenAI e a Microsoft. La prima società, produttrice di ChatGPT e nata come un progetto non-profit e ad accesso libero, si è oggi trasformata in un’azienda valutata dagli investitori più di 80 miliardi di dollari; la seconda, che nel 2023 ha investito quasi 13 miliardi di dollari in OpenAI e ha inserito la tecnologia del modello GPT nel suo motore di ricerca Bing, rientra, insieme a Google, Amazon, Apple e Meta (che comprende Facebook, Instagram e Whatsapp) tra le grandi piattaforme digitali. Queste ultime, secondo i dati dell’Osservatorio sulle piattaforme online dell’Autorità per le garanzie nelle comunicazioni (AGCOM), hanno conseguito, nel 2018, ultima annualità disponibile, 692 miliardi di euro di ricavi, un importo nettamente superiore al Prodotto Interno Lordo della maggior parte degli Stati del mondo.

Secondo la testata giornalistica, nel ricorso presentato davanti al Tribunale Distrettuale Federale di Manhattan, queste due società sarebbero responsabili di aver utilizzato massivamente e abusivamente le pubblicazioni giornalistiche del Times (in misura nettamente superiore a quelle di altre fonti) per alimentare e “istruire” i propri sistemi di intelligenza artificiale, tanto da consentire a questi ultimi sia di riprodurre in modo letterale articoli di tale giornale, riservati agli abbonati, sia di riprodurne lo stesso stile espressivo, fino ad arrivare ad attribuire alla testata giornalistica la diffusione di informazioni in realtà scorrette o false. Quanto a quest’ultimo aspetto si tratta delle c.d. allucinazioni, ossia quel fenomeno in grado di generare dati ed esperienze che appaiono realistiche, ma che non corrispondono ad alcun input della vita reale. In altre parole, il sistema, anziché rispondere “non so” a domande per le quali non conosce la risposta corretta, fornisce comunque informazioni, non accurate oppure addirittura false, attribuendole a fonti specifiche (in questo caso, al New York Times) senza che tuttavia l’utente possa averne alcuna consapevolezza. Tutto ciò, secondo il giornale, consente ai lettori di poter accedere ai propri contenuti non solo senza dover pagare alcunché all’editore, ma anche senza dover neppure accedere al sito stesso, generando così traffico per le visualizzazioni pubblicitarie.

Si tratta di un giudizio che ha suscitato enorme scalpore; sicuramente per i soggetti coinvolti – il New York Times è una delle più grandi testate giornalistiche statunitensi, nonché la prima a citare in giudizio le “aziende dell’intelligenza artificiale generativa” (chiamata così perché sa generare contenuti dopo aver appreso da enormi insiemi di dati, che siano testi, immagini, audio o video) per questioni di diritti d’autore – e per le valutazioni che impone sulla legittimità dell’uso di ingenti basi di dati contenti opere per l’ingegno al fine dell’addestramento di sistemi di intelligenza artificiale; ma soprattutto perché chiama in causa una riflessione più ampia e urgente su come tali meccanismi incidano sulla tutela del diritto all’informazione e sulla conseguente esigenza di preservare un’industria giornalistica indipendente e attendibile.

Si legge nel ricorso, infatti, che se il New York Times «e altre organizzazioni non possono produrre e proteggere il loro giornalismo indipendente ci sarà un vuoto che nessun computer e nessuna intelligenza artificiale potrà riempire. Con meno giornalismo prodotto, il costo per la società sarà enorme». La professione del giornalista – e non solo – si trova quindi a dover trovare un nuovo equilibrio tra il suo ruolo all’interno della società e un’innovazione tecnologica sempre più veloce e dirompente, gestita da (poche) grandi società private che esercitano non soltanto un enorme potere economico, ma, nei fatti, influiscono su ogni decisione e condotta umana, non perché venga chiesto loro espressamente di sostituirla, ma perché forniscono la base informativa su cui tali decisioni e condotte verranno prese e tenute. Il diritto all’informazione, perché ne sia garantita l’effettività, deve connotarsi in ragione «a) del pluralismo delle fonti cui attingere conoscenze e notizie, che comporta, fra l’altro, il vincolo al legislatore di impedire la formazione di posizioni dominanti e di favorire l’accesso […] al massimo numero possibile di voci diverse; b) dell’obiettività e dell’imparzialità dei dati forniti; c) della completezza, della correttezza e della continuità dell’attività di informazione erogata; d) in ultimo, del rispetto della dignità umana e degli altri valori primari garantiti dalla Costituzione» (Corte costituzionale, n. 112 del 1993). Ciò, infatti, è funzionale ad assicurare una libera opinione pubblica in grado di svilupparsi attraverso la pari concorrenza di tutti alla formazione della volontà generale. Questo, non può essere garantito da tali nuovi e inediti centri di potere tecnologico che hanno trasformato quella che sarebbe dovuta essere un’arena pubblica nello spazio gestito da chi, attraverso procedure opache dietro cui si nasconde la decisione di chi detiene questo potere, è in grado di estrarre valore dai dati che ha a disposizione, non solo al fine di acquisire vantaggi direttamente o indirettamente nel proprio mercato di riferimento o in mercati affini, ma anche per influenzare – o mettere questi stessi dati a disposizione di chi intende influenzare – dinamiche private, relazionali e pubbliche.

Il trasferimento dei quotidiani sul web, il proliferare in rete di siti di informazione non professionale, il ruolo crescente dei motori di ricerca – oggi implementati dall’intelligenza artificiale come nel caso che qui interessa – quale sede di diffusione di informazioni, notizie e opinioni, modificano infatti le caratteristiche sia del diritto all’informazione sia del “pubblico” che si trova ad avere a disposizione una massa smisurata di notizie, talvolta create secondo un moto apparentemente circolare e qualificate come veritiere e/o rilevanti non più dal carattere accreditato della fonte di trasmissione.

In gioco, a ben vedere, c’è quindi molto di più della tutela del diritto di autore, comunque essenziale al fine di preservare un controllo professionale sui contenuti: c’è la necessità di acquisire (e far acquisire) consapevolezza del fatto che chi gestisce queste nuove tecnologie è in grado di determinare effetti sul modo di percepire e interpretare la realtà, producendo cambiamenti sulla struttura del discorso pubblico e avendo un impatto senza precedenti sullo spazio sociale, e quindi politico.


Gaza. Operazione “Spade di ferro”

Autore:

Le vaste autorizzazioni concesse all’esercito israeliano per bombardare obiettivi non militari, l’allentamento delle restrizioni sulle morti di civili previste e l’uso di un sistema di intelligenza artificiale per generare un numero di obiettivi potenziali più vasto di sempre hanno contribuito alla natura distruttiva delle prime fasi della guerra di Israele nella striscia di Gaza. Lo rivela un’indagine delle testate israeliane +972 Magazine e Local Call pubblicata da il manifesto il 7 dicembre, nella traduzione di Giovanna Branca. (la redazione)

L’indagine di +972 e Local Call si basa su conversazioni con sette ufficiali attivi e non più in servizio della comunità dell’intelligence israeliana – fra cui membri dell’intelligence militare e personale delle forze aeree coinvolti in operazioni nella Striscia assediata – oltre a testimonianze palestinesi, dati e documenti provenienti da Gaza e dichiarazioni ufficiali del portavoce delle Idf (l’esercito israeliano) e di altre istituzioni statali israeliane.

Confrontata a precedenti operazioni nella Striscia, la guerra in corso – a cui Israele ha dato il nome «Operazione spade di ferro», e che è cominciata all’indomani degli attacchi del 7 ottobre condotti da Hamas nel sud di Israele – ha visto l’esercito ampliare significativamente i bombardamenti di obiettivi non strettamente militari. Fra di essi case private come edifici pubblici, infrastrutture e interi isolati di palazzi multipiano, che secondo delle fonti l’esercito definisce “power targets (matarot otzem).

Il bombardamento di “power targets”, secondo fonti dell’intelligence con un’esperienza diretta dell’impiego di questi obiettivi a Gaza in passato, è pensata principalmente per arrecare danno alla società civile palestinese: per «creare uno shock» che, fra le altre cose, abbia ampie ripercussioni e «faccia sì che i palestinesi esercitino delle pressioni su Hamas», con le parole di una fonte.

Molte delle fonti che hanno parlato con +972 e Local Call a patto di restare anonime, hanno confermato che l’esercito israeliano è in possesso di file sulla grande maggioranza degli obiettivi potenziali a Gaza – incluse le case – in cui è riportato il numero di civili che plausibilmente verranno uccisi in un attacco. Di questo numero le unità di intelligence dell’esercito sono al corrente in anticipo: poco prima di condurre un attacco sono anche consapevoli di quanti civili, più o meno, verranno uccisi con certezza.

In uno dei casi discussi dalle fonti, il comando dell’esercito israeliano ha consapevolmente approvato l’uccisione di centinaia di civili palestinesi nel tentativo di assassinare un singolo comandante militare di Hamas. «I numeri sono passati da decine di morti civili consentite come danno collaterale di un attacco a ufficiali di primo piano di Hamas, come avveniva nelle operazioni precedenti, a centinaia di morti civili come danno collaterale», ha detto una fonte. «Niente succede per caso», ha affermato un’altra fonte. «Quando una bimba di tre anni viene uccisa in una casa a Gaza, è perché qualcuno nell’esercito ha deciso che la sua morte non è un dramma – che è un prezzo accettabile da pagare per poter colpire un obiettivo.

Non siamo Hamas. Non lanciamo razzi a caso. Tutto è intenzionale. Sappiamo esattamente quanti ‘danni collaterali’ ci sono in ogni casa».

Secondo l’indagine, un altro dei motivi per cui il numero degli obiettivi è così vasto e i danni arrecati alla vita civile a Gaza così profondi è l’uso diffuso di un sistema denominato Habsora (The Gospel), basato in gran parte sull’intelligenza artificiale e che può «generare» obiettivi quasi automaticamente a una velocità di gran lunga maggiore di quanto fosse possibile in precedenza. Questo sistema di Ia, con le parole di un ex funzionario dell’intelligence, facilita sostanzialmente una «fabbrica di omicidi di massa».

Secondo le fonti, l’impiego crescente di sistemi fondati sull’Ia come Habsora consente all’esercito di lanciare attacchi su vasta scala contro edifici residenziali dove vive anche un solo membro di Hamas, perfino quelli più in basso nella gerarchia. Eppure, le testimonianze dei palestinesi a Gaza suggeriscono che dal 7 ottobre l’esercito ha lanciato attacchi anche su molte residenze private dove non risiedeva nessun membro noto o presunto di Hamas, né di altri gruppi di miliziani. Simili attacchi, hanno confermato le fonti a +972 e Local Call, possono consapevolmente uccidere intere famiglie. Nella maggioranza dei casi, hanno aggiunto le fonti, non ci sono attività militari che vengono condotte dall’interno delle case prese di mira. «Ricordo di aver pensato che era come se i miliziani palestinesi bombardassero le case delle nostre famiglie quando i soldati israeliani tornavano a casa per il weekend», ricorda una delle fonti, che era contraria a questa pratica. Un’altra fonte ha dichiarato che un ufficiale dell’intelligence ha detto ai suoi militari che dopo il 7 ottobre l’obiettivo era di «uccidere il maggior numero possibile di miliziani di Hamas», per cui i criteri relativi ai danni ai palestinesi sarebbero stati decisamente meno stringenti. Di conseguenza, ci sono «casi in cui facciamo fuoco sulla base di una localizzazione molto ampia di dove si trova l’obiettivo, uccidendo dei civili. Una pratica impiegata il più delle volte per risparmiare tempo, invece di fare un po’ di lavoro aggiuntivo per ottenere una localizzazione più accurata», ha detto la fonte.

Il risultato di queste politiche è la sconvolgente perdita di vite umane a Gaza dal 7 ottobre. Più di 300 famiglie hanno perso dieci o più parenti nei bombardamenti israeliani degli ultimi due mesi – un numero 15 volte più alto di quello relativo alla guerra sinora più letale a Gaza, del 2014. Al momento in cui viene scritto questo articolo, circa 15.000 palestinesi risultano uccisi in questa guerra, e il numero è in crescita. «Tutto questo sta accadendo in opposizione al protocollo impiegato dalle Idf in passato», ha spiegato una fonte. «C’è la sensazione che ufficiali di alto grado dell’esercito siano consapevoli del fallimento del 7 ottobre, e che siano impegnati a chiedersi come fornire al pubblico israeliano un’immagine vittoriosa che salvi la loro reputazione».

Israele ha lanciato la sua offensiva a Gaza all’indomani dell’attacco di Hamas nel sud di Israele. Durante l’attacco, sotto una salva di razzi, i miliziani palestinesi hanno massacrato oltre 840 civili e ucciso 350 soldati e personale di sicurezza, rapito circa 240 persone – civili e soldati – poi condotte a Gaza, commesso diffuse violenze sessuali, stupro incluso, secondo un report della ong Physicians for Human Rights Israel.

Subito dopo l’attacco del 7 ottobre, la classe politica di Israele ha dichiarato apertamente che la risposta sarebbe stata di un’entità completamente diversa dalle precedenti operazioni militari a Gaza, con l’obiettivo di sradicare completamente Hamas. «L’enfasi è sui danni, non sull’accuratezza», ha dichiarato il 9 ottobre il portavoce delle Idf Daniel Hagari. L’esercito ha prontamente tradotto quelle dichiarazioni in azione.

Secondo le fonti sentite da +972 e Local Call, gli obiettivi colpiti dall’aviazione israeliana a Gaza possono essere suddivisi a grandi linee in quattro categorie. La prima è quella degli «obiettivi tattici»: di essa fanno parte obiettivi militari standard come le cellule di miliziani armati, magazzini di armi, lanciarazzi, missili anticarro, postazioni di lancio, mortai, quartier generali militari, postazioni di vedetta e così via. La seconda categoria è quella degli «obiettivi sotterranei» – principalmente i tunnel che Hamas ha scavato al di sotto dei quartieri di Gaza, case civili incluse. La terza sono i power targets, di cui fanno parte i palazzi più alti e i palazzi multipiano al cuore delle città ed edifici pubblici come università, banche e uffici governativi. L’idea che sottende il prendere di mira simili obiettivi, dicono tre fonti dell’intelligence che in passato sono state coinvolte nella pianificazione o l’attuazione di attacchi contro dei power targets, è che un attacco deliberato contro la società palestinese provocherà una «pressione civile» su Hamas. L’ultima categoria è composta da «case di familiari» di Hamas e «case di miliziani». L’obiettivo dichiarato di questi attacchi è distruggere delle residenze private per assassinare un singolo abitante sospettato di far parte di Hamas o del Jihad Islami. Tuttavia, nella guerra in corso, testimoni palestinesi sostengono che alcune delle famiglie uccise non avevano al proprio interno nessun miliziano di queste organizzazioni.

Nelle prime fasi del conflitto, è sembrato che l’esercito israeliano fosse particolarmente interessato alla terza e quarta categoria di obiettivi. Secondo delle dichiarazioni del portavoce delle Idf dell’11 ottobre, nei primi cinque giorni di combattimenti metà degli obiettivi bombardati – 1.329 su un totale di 2.687 – erano ritenuti power targets.

«Ci è stato chiesto di individuare palazzi multipiano con mezzo piano attribuibile ad Hamas», ha detto una fonte che ha partecipato a offensive precedenti a Gaza. «Alle volte è l’ufficio di un portavoce di uno di questi gruppi, o un punto di ritrovo dei miliziani. Ho capito che il piano è un pretesto che consente all’esercito di causare distruzione a Gaza. Se dicessero al mondo intero che gli uffici del Jihad Islami al 10mo piano non sono un obiettivo così importante, ma che la loro presenza è una scusa per buttare giù un intero palazzo con lo scopo di fare pressione sulle famiglie di civili che ci vivono affinché pressino a loro volta le organizzazioni terroristiche, questo stesso atto verrebbe visto come terrorismo. Quindi non lo dicono», ha aggiunto la fonte. Varie fonti che hanno lavorato nelle unità di intelligence delle Idf hanno detto che perlomeno fino alla guerra in corso, i protocolli dell’esercito consentivano l’attacco di power targets solo quando negli edifici non si trovavano residenti. Tuttavia, testimonianze e video provenienti da Gaza suggeriscono che dal 7 ottobre alcuni di questi obiettivi siano stati attaccati senza prima notificare i residenti, uccidendo così intere famiglie.

La presa di mira su vasta scala di edifici residenziali si può dedurre da dati pubblici e ufficiali. Secondo l’ufficio media del governo di Gaza – che fornisce il bilancio dei morti da quando il ministero della Salute ha smesso di farlo l’11 novembre a causa del collasso del sistema sanitario nella Striscia – al momento in cui è entrato in vigore il cessate il fuoco temporaneo il 23 novembre, Israele aveva ucciso 14.800 palestinesi della Striscia, di cui approssimativamente 6mila bambini e 4mila donne, che insieme rappresentano più del 67% del totale. I numeri forniti dal ministero della Salute e dall’ufficio dei media governativo – entrambi controllati dal governo di Hamas – non distano significativamente dalle stime israeliane. Il ministero della Salute di Gaza, inoltre, non specifica quanti dei morti appartenessero all’ala militare di Hamas o al Jihad Islami. L’esercito israeliano stima di aver ucciso fra mille e tremila miliziani palestinesi. Secondo i report dei media in Israele, alcuni dei miliziani sono seppelliti sotto le macerie del sistema di tunnel sotterranei di Hamas e di conseguenza non vengono contati nelle stime ufficiali. I dati dell’Onu relativi periodo che arriva fino all’11 novembre, quando Israele aveva ucciso 11.078 palestinesi a Gaza, affermano che almeno 312 famiglie hanno perso dieci o più persone durante l’attacco in corso; per fare un paragone, durante l’operazione Margine protettivo del 2014, 20 famiglie di Gaza avevano subito la stessa sorte. Sempre secondo i dati delle Nazioni unite, 189 famiglie hanno perso fra sei e nove parenti, mentre 549 nuclei familiari fra due e cinque. Non ci sono stime aggiornate per il bilancio dei morti reso pubblico dall’11 novembre.

I massicci attacchi contro «power targets» e residenze private sono arrivati contemporaneamente all’appello dell’esercito israeliano, il 13 ottobre, a 1.1 milioni di abitanti di Gaza – la maggior parte residenti di Gaza City – affinché lasciassero le loro case e si spostassero verso il sud della Striscia. A quel punto, era già stato bombardato un numero record di «power targets» e più di 1.000 palestinesi erano stati uccisi, inclusi centinaia di bambini. In totale, secondo l’Onu, dal 7 ottobre 1.7 milioni di palestinesi, la stragrande maggioranza della popolazione della Striscia, sono sfollati all’interno di Gaza. L’esercito sostiene che la richiesta di evacuare il nord della Striscia dipendesse dalla volontà di tutelare le vite civili. I palestinesi, tuttavia, vedono questo trasferimento di massa come parte di una «nuova Nakba» – un tentativo di fare pulizia etnica in parte del territorio, o nella sua interezza. Secondo l’esercito israeliano, nei primi cinque giorni di combattimenti sono state sganciate sulla Striscia 6mila bombe, per un peso totale di 4mila tonnellate. I media hanno riportato che l’esercito ha spazzato via interi quartieri; secondo l’Al Mezan Center for Human Rights, con base a Gaza, questi attacchi hanno causato «la completa distruzione di quartieri residenziali e infrastrutture e l’omicidio di massa degli abitanti».

Come è stato documentato da Al Mezan e da numerose immagini provenienti dalla Striscia, Israele ha bombardato l’Università islamica di Gaza, l’associazione legale palestinese, un edificio delle Nazioni unite destinato a programmi educativi per studenti meritevoli, un edificio della Compagnia delle telecomunicazioni palestinese, il ministero dell’Economia nazionale, il ministero della Cultura, strade, una decina di palazzi multipiano e case – specialmente nei quartieri settentrionali di Gaza. Il quinto giorno dei combattimenti, il portavoce delle Idf ha distribuito ai reporter militari in Israele immagini satellitari dei quartieri nel nord della Striscia – come Shuja’iyya e Al-Furqan, a Gaza City – «prima e dopo», in cui si vedevano decine di case e edifici distrutti. L’esercito israeliano sosteneva di aver colpito 182 «power targets» a Shuja’iyya e 312 a Al-Furqan.

Il capo dello staff dell’aviazione israeliana, Omer Tishler, ha detto ai reporter militari che tutti questi attacchi avevano un legittimo obiettivo militare, ma anche che interi quartieri sono stati attaccati «su vasta scala e non in modo chirurgico». Osservando che metà degli obiettivi colpiti fino all’11 ottobre erano power targets, il portavoce delle Idf ha affermato che «interi quartieri rifugio di Hamas» erano stati attaccati e che i danni erano stati arrecati a «quartier generali operativi», «risorse operative» e «risorse sfruttate dai terroristi

all’interno di edifici residenziali». Il 12 ottobre, l’esercito di Tel Aviv ha annunciato di aver ucciso tre «ufficiali di alto rango di Hamas» – due dei quali facevano parte dell’ala politica dell’organizzazione.

Eppure, nonostante lo smodato bombardamento israeliano, i danni arrecati alle infrastrutture militari di Hamas nel nord di Gaza nei primi giorni di guerra sembrano essere stati minimi. Le fonti dell’intelligence sentite da +972 e Local Call sostengono infatti che gli obiettivi militari dei power targets sono stati usati molte volte in precedenza come foglia di fico per colpire la popolazione civile. «Hamas è ovunque a Gaza; non c’è edificio che non contenga qualcosa di Hamas, quindi se si cerca il modo di trasformare un palazzo multipiano in un obiettivo ci sarà sempre modo di farlo», ha detto un ex funzionario dell’intelligence. «Non colpiranno mai un palazzo che non abbia al suo interno qualcosa che possa essere definito come obiettivo militare», ha affermato un’altra fonte dell’intelligence, che in precedenza ha condotto attacchi rivolti a dei «power targets». «Ci sarà sempre un piano del palazzo associato a Hamas. Ma per la maggior parte, per quanto riguarda questi obiettivi, è chiaro che non hanno un valore militare che giustifichi l’abbattimento di un intero edificio vuoto nel cuore di una città, con il contributo di sei aerei e bombe del peso di svariate tonnellate». Infatti, secondo delle fonti coinvolte nell’elencazione dei «power targets» per guerre precedenti, anche se il file relativo all’obiettivo contiene qualche forma di associazione con Hamas o altri gruppi, colpirlo ha principalmente lo scopo di «consentire un danno alla società civile». Le fonti ritengono, alcune esplicitamente e altre in modo implicito, che danneggiare i civili sia il vero scopo di questi attacchi.

A maggio 2021, per esempio, Israele è stato pesantemente criticato per aver bombardato la Al-Jalaa Tower, che ospitava importanti media internazionali come Al-Jazeera, Ap e Afp. L’esercito ha sostenuto che l’edificio fosse un obiettivo militare; le fonti di +972 e Local Call sostengono si trattasse in realtà di un “power target”. «La percezione è che Hamas sostenga un danno importante quando dei palazzi multipiano vengono abbattuti, perché questo crea una reazione pubblica nella Striscia di Gaza e spaventa la popolazione», ha detto una delle fonti. «Volevano dare ai civili della Striscia la sensazione che Hamas non fosse in controllo della situazione. Alle volte abbattevano edifici e altre volte strutture governative e uffici postali».

Anche se è senza precedenti che l’esercito israeliano attacchi più di mille power targets in cinque giorni, l’idea di causare una devastazione di massa in aree civili per scopi strategici è stata formulata durante operazioni precedenti a Gaza, e affinata dalla cosiddetta “dottrina Dahiya” a partire dalla seconda guerra libanese del 2006. Secondo questa dottrina – elaborata dall’ex capo dello staff delle Idf Gadi Eizenkot, ora membro della Knesset e del gabinetto di guerra – in un conflitto condotto contro milizie come quelle di Hamas o Hezbollah, Israele deve esercitare una forza sproporzionata e schiacciante per stabilire una deterrenza e obbligare la popolazione civile a esercitare una pressione sui gruppi terroristici affinché pongano fine ai loro attacchi. Il concetto di power targets sembra emanare da questa logica.

La prima volta che l’esercito israeliano ha definito pubblicamente dei power targets a Gaza è stato durante la fase finale di Margine protettivo nel 2014. Ha bombardato quattro edifici negli ultimi quattro giorni di guerra – tre edifici multipiano a Gaza City e uno a Rafah. L’establishment della sicurezza all’epoca ha spiegato che gli attacchi puntavano a comunicare ai palestinesi di Gaza che «niente è più immune» e a esercitare una pressione su Hamas affinché accettasse un cessate il fuoco. «Le prove raccolte mostrano che la distruzione di edifici su vasta scala è stata condotta deliberatamente, senza alcuna giustificazione militare», sosteneva un report di Amnesty di fine 2014. Durante un’altra violenta escalation cominciata nel novembre 2018, l’esercito ha ancora una volta attaccato dei power targets. In quell’occasione, Israele ha bombardato dei palazzi multipiano, dei centri commerciali e gli edifici della stazione televisiva Al-Aqsa, affiliata a Hamas. «Attaccare dei power targets produce un effetto significativo sulla parte opposta», ha affermato all’epoca l’aviazione israeliana. «Lo abbiamo fatto senza uccidere nessuno e ci siamo assicurati che l’edificio e i suoi dintorni fossero stati evacuati».

Operazioni precedenti hanno anche dimostrato come colpire questi obiettivi non fosse solo destinato a demoralizzare i palestinesi, ma anche a sollevare il morale all’interno di Israele. Haaretz ha rivelato come durante l’operazione Guardiani del muro del 2021 l’unità dei portavoce delle Idf abbia condotto un’operazione psicologica rivolta ai cittadini israeliani per incrementare la consapevolezza delle operazioni dell’esercito a Gaza e del danno che causavano ai palestinesi. I soldati, che si servivano di falsi account social per nascondere le origini della campagna militare, caricavano immagini e video degli attacchi dell’esercito a Gaza su Twitter, Facebook, Tik Tok e Instagram, per dare prova al pubblico israeliano del valore dell’esercito.

Durante l’operazione del 2021, Israele ha colpito nove obiettivi definiti come power targets – tutti palazzi multipiano. «L’obiettivo era farli collassare per fare pressione su Hamas, e anche per fare in modo che al pubblico israeliano arrivasse un’immagine vittoriosa», ha detto una fonte impiegata nelle agenzie di sicurezza a +972 e Local Call. Ma «non ha funzionato. Avendo seguito personalmente Hamas, so quanto a loro non importi dei civili e degli edifici abbattuti. Alle volte l’esercito trovava in un palazzo qualcosa di collegato a Hamas, ma sarebbe stato anche possibile colpire quell’obiettivo con armamenti più precisi. La morale della favola è che hanno buttato giù un palazzo solo per il gusto di farlo».

Non solo il conflitto in corso ha visto Israele attaccare un numero senza precedenti di power targets, sono state anche abbandonate le politiche precedenti che miravano a evitare danni ai civili. Mentre in passato la procedura ufficiale dell’esercito prevedeva che fosse possibile attaccare power targets solo dopo l’evacuazione di tutti i civili, le testimonianze dei residenti palestinesi a Gaza indicano che dal 7 ottobre Israele ha attaccato dei palazzi multipiano con i loro residenti ancora all’interno, o senza aver intrapreso passi significativi per evacuarli, causando molte vittime civili. Tali attacchi spesso provocano la morte di intere famiglie, come già sperimentato nelle offensive precedenti; secondo un’indagine condotta dall’Ap dopo la guerra del 2014, circa l’89 per cento di coloro che sono stati uccisi nei bombardamenti aerei di abitazioni private erano residenti disarmati, per la maggior parte bambini e donne.

Tishler, capo di stato maggiore dell’aeronautica, ha confermato il cambio di politica, dichiarando ai giornalisti che la politica del «bussare al tetto» – mediante la quale veniva sparato un piccolo colpo iniziale sul tetto di un edificio per avvertire i residenti che stava per essere colpito – non è più in uso «quando c’è un nemico». Tishler ha affermato che il «bussare al tetto» è «un termine pertinente per i cicli [di combattimento] e non per la guerra».

Le fonti che hanno lavorato in precedenza con dei power targets hanno dichiarato che la strategia spudorata della guerra in corso potrebbe rappresentare uno sviluppo pericoloso: gli attacchi a questi obiettivi, hanno spiegato, erano inizialmente pensati per “scioccare” Gaza, ma non necessariamente per uccidere un gran numero di civili. «Questi obiettivi sono stati pensati a partire dal presupposto che i palazzi sarebbero stati evacuati, quindi quando lavoravamo [alla compilazione dei target], non c’era alcuna preoccupazione su quanti civili sarebbero stati feriti; si dava per scontato che il numero sarebbe stato sempre zero», ha dichiarato una fonte con profonda conoscenza di questa tattica. «Questo esigerebbe un’evacuazione totale [degli edifici bersaglio] che richiede due o tre ore, durante le quali i residenti vengono chiamati [al telefono per evacuare], si sparano missili d’avvertimento e vengono impiegati anche droni per verificare che le persone stiano effettivamente lasciando il grattacielo», ha aggiunto la fonte. Tuttavia, delle prove arrivate da Gaza suggeriscono che alcuni palazzi – che presumiamo fossero power targets – sono stati abbattuti senza preavviso. +972 e Local Call hanno individuato almeno due casi durante la guerra attuale in cui interi palazzi residenziali sono stati bombardati e rasi al suolo senza preavviso e un caso in cui, secondo le prove, un palazzo è crollato sui civili che si trovavano all’interno.

Il 10 ottobre, Israele ha bombardato l’edificio Babel a Gaza, secondo il racconto di Bilal Abu Hatzira, che quella notte ha recuperato i corpi dalle rovine. Dieci persone sono state uccise nell’attacco all’edificio, compresi tre giornalisti. Il 25 ottobre, il grattacielo residenziale Al-Taj a Gaza City è stato bombardato e raso al suolo, uccidendo le famiglie che vi abitavano senza alcun preavviso. Circa 120 persone sono rimaste sepolte sotto le macerie dei loro appartamenti, secondo i racconti dei residenti. Uno di loro, Yousef Amar Sharaf, ha scritto su X che 37 membri della sua famiglia che vivevano nell’edificio sono stati uccisi nell’attacco: «I miei cari genitori, la mia amata moglie, i miei figli e la maggior parte dei miei fratelli e delle loro famiglie». I residenti hanno dichiarato che sono state sganciate molte bombe, danneggiando e distruggendo appartamenti anche negli edifici vicini. Sei giorni dopo, il 31 ottobre, l’edificio residenziale di otto piani Al-Mohandseen è stato bombardato senza preavviso. Fra 30 e 45 corpi sono stati recuperati dalle rovine il primo giorno. Un bambino è stato trovato vivo, senza i genitori. I giornalisti hanno stimato che oltre 150 persone siano state uccise nell’attacco, poiché molte sono rimaste sepolte sotto le macerie. L’edificio sorgeva nel campo profughi di Nuseirat, a sud di Wadi Gaza, nella presunta «zona sicura» verso cui Israele spingevano i palestinesi in fuga dalle loro case nel nord e al centro di Gaza, e quindi secondo i racconti serviva da rifugio temporaneo per gli sfollati.

Secondo un’indagine di Amnesty International, il 9 ottobre Israele ha bombardato almeno tre edifici di più piani, così come un mercato dell’usato all’aperto su una strada affollata nel campo profughi di Jabaliya, uccidendo almeno 69 persone. «I corpi erano bruciati […] non volevo guardare, avevo paura di guardare il viso di Imad», ha detto il padre di un bambino ucciso. «I cadaveri erano sparsi sul pavimento. Tutti cercavano i loro figli in queste pile. Ho riconosciuto mio figlio solo dai pantaloni. Volevo seppellirlo immediatamente, così ho preso mio figlio e l’ho tirato fuori».

Secondo l’indagine di Amnesty, l’esercito ha dichiarato che l’attacco nell’area del mercato era mirato a una moschea «dove si trovavano miliziani di Hamas». Tuttavia, secondo la stessa indagine, le immagini satellitari non mostrano una moschea nelle vicinanze. Il portavoce delle Idf non ha risposto alle domande di +972 e Local Call su questo attacco specifico, ma ha dichiarato più generalmente che «le Idf forniscono avvisi prima degli attacchi in vari modi, e quando le circostanze lo consentono avvisano anche personalmente, attraverso delle telefonate, le persone che si trovano nel luogo dell’obiettivo o nelle sue vicinanze. Ci sono stati 25.000 colloqui telefonici durante la guerra, oltre a milioni di conversazioni registrate, messaggi di testo e volantini lanciati per allertare la popolazione. In generale, le Idf cercano di ridurre al massimo i danni ai civili durante gli attacchi, nonostante la sfida di combattere un’organizzazione terroristica che usa i cittadini di Gaza come scudi umani».

Secondo il portavoce delle Idf, fino al 10 novembre, durante i primi 35 giorni di combattimento, Israele ha attaccato un totale di 15mila obiettivi a Gaza. Secondo diverse fonti, si tratta di un numero molto elevato rispetto alle quattro operazioni principali precedenti nella Striscia. Durante “Guardiano del muro” nel 2021, Israele ha attaccato 1.500 obiettivi in 11 giorni. Nel corso di “Margine protettivo” nel 2014, durata 51 giorni, Israele ha colpito tra 5.266 e 6.231 obiettivi. Durante “Pilastro di difesa” nel 2012 sono stati attaccati circa 1.500 obiettivi in otto giorni. L’“operazione Piombo fuso nel 2008 ha colpito 3.400 obiettivi in 22 giorni. Fonti di intelligence che hanno servito nelle operazioni precedenti hanno dichiarato a +972 e Local Call che, per 10 giorni nel 2021 e tre settimane nel 2014, un tasso di 100-200 attacchi al giorno ha portato a una situazione in cui l’Aeronautica israeliana non aveva più obiettivi di rilievo militare. Perché, quindi, dopo quasi due mesi, l’esercito israeliano non ha ancora esaurito gli obiettivi nella guerra attuale? La risposta potrebbe trovarsi in una dichiarazione del 2 novembre del portavoce delle Idf, secondo la quale si sta impiegando il sistema di intelligenza artificiale Habsora, che «consente l’uso di strumenti automatizzati per produrre obiettivi a un ritmo veloce e materiale di intelligence accurato e di alta qualità secondo le esigenze operative». Nel comunicato, un alto ufficiale dell’intelligence afferma che grazie a Habsora vengono individuati degli obiettivi per interventi mirati che «causano notevoli danni al nemico e minimi danni ai non combattenti. Gli operatori di Hamas non sono al sicuro, ovunque si nascondano». Secondo fonti di intelligence, Habsora genera, tra le altre cose, raccomandazioni automatiche per attaccare abitazioni private dove vivono persone sospettate di essere miliziani di Hamas o del Jihad Islami. Israele quindi effettua operazioni di assassinio su vasta scala con pesanti bombardamenti di queste abitazioni residenziali.

Habsora, ha spiegato una delle fonti, elabora enormi quantità di dati che «decine di migliaia di ufficiali di intelligence non potrebbero processare» e raccomanda obiettivi da bombardare in tempo reale. Poiché la maggior parte degli alti funzionari di Hamas si rifugia nei tunnel sotterranei all’inizio di qualsiasi operazione militare, secondo le fonti, l’uso di un sistema come Habsora consente di individuare e attaccare le case di miliziani relativamente di basso livello. Un ex ufficiale dell’intelligence ha spiegato che il sistema Habsora consente all’esercito di gestire una «fabbrica di assassinii di massa», in cui l’«enfasi è sulla quantità e non sulla qualità». Un occhio umano poi «esaminerà gli obiettivi prima di ogni attacco, ma non è necessario spendere molto tempo su di essi». Dal momento che Israele stima che ci siano circa 30.000 membri di Hamas a Gaza, e tutti sono «condannati» a morte, il numero potenziale di obiettivi è enorme.

Nel 2019, l’esercito israeliano ha creato un nuovo centro destinato all’uso dell’Ia per accelerare la generazione di obiettivi. «La Divisione amministrativa degli Obiettivi è un’unità di cui fanno parte centinaia di ufficiali e soldati, e si basa sulle capacità dell’Ia», ha dichiarato l’ex capo di stato maggiore delle Idf Aviv Kochavi in un’approfondita intervista con Ynet all’inizio di quest’anno. «È una macchina che, con l’ausilio dell’intelligenza artificiale, elabora molte più informazioni meglio e più velocemente di qualsiasi essere umano, e le traduce in obiettivi da attaccare», ha continuato Kochavi. «Il risultato è che nell’operazione “Guardiano delle mura” (2021), dal momento in cui questa macchina è stata attivata, ha generato 100 nuovi obiettivi ogni giorno. In passato ci sono stati momenti in cui individuavamo 50 obiettivi all’anno a Gaza. E qui la macchina ha prodotto 100 obiettivi in un giorno». «Generiamo gli obiettivi automaticamente e lavoriamo spuntando le voci di una lista», ha detto una delle fonti che ha lavorato nella nuova Divisione Amministrativa degli Obiettivi a +972 e Local Call. «È davvero come una fabbrica. Lavoriamo velocemente e non c’è tempo per approfondire l’obiettivo. L’opinione condivisa è che siamo giudicati in base a quanti obiettivi riusciamo a generare». Un alto ufficiale militare responsabile del registro degli obiettivi ha dichiarato al Jerusalem Post all’inizio di quest’anno che, grazie ai sistemi di intelligenza artificiale dell’esercito, per la prima volta le forze armate possono generare nuovi obiettivi a un ritmo più veloce di quanto attacchino. Un’altra fonte ha affermato che la spinta a generare automaticamente un gran numero di obiettivi è una realizzazione della Dottrina Dahiya.

Sistemi automatizzati come Habsora hanno notevolmente facilitato il lavoro degli ufficiali dell’intelligence israeliana nel prendere decisioni durante le operazioni militari, incluso il calcolo delle possibili vittime civili. Cinque diverse fonti hanno confermato che il numero di civili che potrebbero essere uccisi negli attacchi alle abitazioni private è noto in anticipo all’intelligence israeliana e appare chiaramente nel file dell’obiettivo sotto la categoria «danni collaterali». Secondo queste fonti, ci sono diversi gradi di danni collaterali, in base ai quali l’esercito determina se è possibile attaccare un obiettivo all’interno di una residenza privata. «Quando la direttiva generale diventa ‘Danni Collaterali 5’, significa che siamo autorizzati a colpire tutti gli obiettivi che uccideranno cinque o meno civili, possiamo agire su tutti gli obiettivi classificati cinque o meno», ha detto una delle fonti.

«In passato, non segnavamo regolarmente le case degli affiliati di basso grado di Hamas per bombardarle», ha detto un ufficiale della sicurezza che ha partecipato a degli attacchi durante operazioni precedenti. «Ai miei tempi, se la casa su cui stavo lavorando era contrassegnata come Danni Collaterali 5, non veniva sempre approvata (per l’attacco)». Tale approvazione, ha affermato, si riceveva solo se si era al corrente che in quella casa viveva un comandante di Hamas. «Da quanto ho capito, oggi si possono contrassegnare tutte le case di qualsiasi membro militare di Hamas indipendentemente dal rango», ha continuato la fonte. «Sono molte case. Membri di Hamas che non contano davvero niente vivono in tutta Gaza. Quindi la casa viene contrassegnata, bombardano e uccidono tutti coloro che si trovano al suo interno».

Il 22 ottobre, l’Aeronautica israeliana ha bombardato la casa del giornalista palestinese Ahmed Alnaouq nella città di Deir al-Balah. Ahmed è un mio caro amico e collega; quattro anni fa abbiamo fondato una pagina Facebook in ebraico chiamata Across the Wall, con l’obiettivo di portare le voci palestinesi da Gaza al pubblico israeliano. Il bombardamento del 22 ottobre ha fatto crollare blocchi di cemento sull’intera famiglia di Ahmed, uccidendo suo padre, fratelli, sorelle e tutti i loro figli, compresi i neonati. Solo sua nipote di 12 anni, Malak, è sopravvissuta ma è rimasta in condizioni critiche, il corpo coperto di ustioni. Pochi giorni dopo, Malak è morta. In totale, sono stati uccisi ventuno membri della famiglia di Ahmed, sepolti sotto la loro casa. Nessuno di loro era un militante. Il più giovane aveva due anni; il più anziano, suo padre, aveva 75 anni. Ahmed, attualmente residente nel Regno unito, ora è solo. Il gruppo WhatsApp della famiglia di Ahmed si chiama «Better Together». L’ultimo messaggio che vi è apparso è stato inviato da lui, poco dopo la mezzanotte nella notte in cui ha perso la sua famiglia. «Qualcuno mi faccia sapere che va tutto bene», ha scritto. Nessuno ha risposto. Si è addormentato, ma si è svegliato in preda al panico alle 4 del mattino. Sudando, ha controllato di nuovo il telefono. Silenzio. Poi ha ricevuto un messaggio da un amico con la terribile notizia. Il caso di Ahmed è comune in questi giorni a Gaza. In interviste alla stampa, i dirigenti degli

ospedali di Gaza ripetono la stessa descrizione: le famiglie entrano negli ospedali come processioni di cadaveri, un bambino seguito dal padre seguito dal nonno. I corpi sono ricoperti di polvere e sangue.

Secondo ex ufficiali dell’intelligence israeliana, in molti casi in cui viene bombardata una residenza privata, l’obiettivo è «l’assassinio di miliziani di Hamas o del Jihad Islami» e tali obiettivi vengono attaccati quando il miliziano in questione entra in casa. I ricercatori dell’intelligence sanno se i suoi familiari o i vicini possono morire anch’essi nell’attacco e sanno calcolare quanti di loro potrebbero morire. Ognuna delle fonti ha detto che si tratta di case private, dove nella maggior parte dei casi non viene svolta alcuna attività militare.

+972 e Local Call non dispongono di dati sul numero di miliziani che sono effettivamente stati uccisi o feriti da attacchi aerei su residenze private nella guerra in corso, ma ci sono ampie prove che, in molti casi, non si trattava di membri di Hamas o del Jihad Islami. Il 10 ottobre, l’Aeronautica israeliana ha bombardato un edificio residenziale nel quartiere di Sheikh Radwan a Gaza, uccidendo 40 persone, per lo più donne e bambini. In uno dei video scioccanti girati dopo l’attacco, si vedono delle persone urlare, tenendo in mano quella che sembra una bambola tirata fuori dalle rovine e passandola di persona in persona. Quando la telecamera zooma, si vede che non è una bambola, ma il corpo di un bambino. Uno dei residenti ha dichiarato che 19 membri della sua famiglia sono stati uccisi nell’attacco. Un altro sopravvissuto ha scritto su Facebook di aver trovato solo la spalla di suo figlio tra le macerie. Amnesty ha indagato sull’attacco e ha scoperto che un membro di Hamas viveva in uno dei piani superiori dell’edificio, ma non era presente al momento dell’attacco.

Il bombardamento delle case civili in cui si suppone vivano operatori di Hamas o del Jihad Islami è probabilmente diventata una politica più frequente delle Idf durante l’operazione “Margine Protettivo” nel 2014. All’epoca, 606 palestinesi – circa un quarto delle vittime civili durante i 51 giorni di combattimento – erano membri di famiglie il cui domicilio era stato bombardato. Un rapporto dell’Onu lo definì nel 2015 sia come un possibile crimine di guerra che come «un nuovo modello» di azione che «ha portato alla morte di intere famiglie». Nel 2014, 93 persone hanno perso la vita a causa dei bombardamenti israeliani su case abitate da famiglie, 13 avevano meno di un anno. Un mese fa, 286 bambini di età inferiore a un anno erano già stati identificati come vittime a Gaza, secondo un dettagliato elenco dell’età delle vittime pubblicato dal ministero della Salute di Gaza il 26 ottobre. Il numero è probabilmente raddoppiato o triplicato da allora.

Tuttavia, in molti casi, e soprattutto durante le operazioni in corso attualmente a Gaza, l’esercito israeliano ha effettuato attacchi che hanno colpito residenze private anche in assenza di un obiettivo militare noto o chiaro. Ad esempio, secondo il Committee to Protect Journalists, al 29 novembre Israele aveva ucciso 50 giornalisti palestinesi a Gaza, alcuni dei quali nelle loro case con le rispettive famiglie. Roshdi Sarraj, 31 anni, giornalista di Gaza nato in Gran Bretagna, ha fondato un’agenzia nella Striscia chiamata Ain Media. Il 22 ottobre, una bomba israeliana ha colpito la casa dei suoi genitori dove stava dormendo, uccidendolo. Anche la giornalista Salam Mema è morta sotto le macerie della sua casa dopo un bombardamento; dei suoi tre figli piccoli, Hadi, 7 anni, è morto, mentre Sham, 3 anni, non è ancora stato trovato sotto le macerie. Altri due giornalisti, Duaa Sharaf e Salma Makhaimer, sono stati uccisi insieme ai loro figli nelle loro abitazioni.

Gli analisti israeliani hanno ammesso che l’efficacia militare di queste tipologie di attacchi aerei sproporzionati è limitata. Due settimane dopo l’inizio dei bombardamenti (e prima dell’invasione terrestre) – dopo che nella Striscia di Gaza erano stati contati i corpi di 1.903 bambini, circa 1.000 donne e 187 anziani – il commentatore israeliano Avi Issacharoff ha twittato: «Per quanto sia difficile da sentire, al 14º giorno di combattimento, non sembra che il braccio militare di Hamas sia stato significativamente danneggiato. Il danno più significativo alla leadership militare è l’assassinio del comandante di Hamas Ayman Nofal». I militanti di Hamas operano regolarmente all’interno di una intricata rete di tunnel costruiti sotto ampie porzioni della Striscia di Gaza. Questi tunnel, come confermato dagli ex ufficiali dell’intelligence israeliana con cui abbiamo parlato, passano anche sotto case e strade. Pertanto, i tentativi israeliani di distruggerli con attacchi aerei sono in molti casi suscettibili di causare la morte di civili. Questo potrebbe essere un altro motivo per l’alto numero di famiglie palestinesi annientate nell’attuale offensiva. Gli ufficiali dell’intelligence intervistati per questo articolo hanno affermato che il modo in cui Hamas ha progettato la rete di tunnel a Gaza sfrutta consapevolmente la popolazione civile e le infrastrutture che si trovano al di sopra. Queste affermazioni sono state anche alla base della campagna mediatica condotta da Israele sugli attacchi all’ospedale di Al-Shifa e le incursioni nei tunnel scoperti sotto di esso.

Israele ha anche attaccato un gran numero di obiettivi militari: miliziani armati di Hamas, siti per il lancio di razzi, cecchini, squadre anticarro, quartier generali militari, basi, posti di osservazione e altro ancora. Dall’inizio dell’invasione terrestre, bombardamenti aerei e pesante fuoco di artiglieria sono stati impiegati per fornire supporto alle truppe di terra. Gli esperti di diritto internazionale sostengono che questi obiettivi sono legittimi, purché gli attacchi rispettino il principio di proporzionalità. In risposta a una richiesta di informazioni da parte di +972 e Local Call per questo articolo, il portavoce delle Idf ha dichiarato: «Le Idf si impegnano a rispettare il diritto internazionale e agiscono di conseguenza, attaccando obiettivi militari e non civili. L’organizzazione terroristica Hamas posiziona i suoi operatori e i suoi asset militari nel cuore della popolazione civile. Hamas utilizza sistematicamente la popolazione civile come scudo umano e conduce combattimenti da edifici civili, compresi siti sensibili come ospedali, moschee, scuole e strutture dell’Onu». Le fonti dell’intelligence che hanno parlato con +972 e Local Call hanno affermato in modo simile che in molti casi Hamas «mette deliberatamente in pericolo la popolazione civile a Gaza e cerca di impedire con la forza ai civili di evacuare». Due fonti hanno affermato che i leader di Hamas «comprendono che il danno inflitto da Israele ai civili conferisce loro legittimità nella lotta».

Allo stesso tempo, mentre oggi può sembrare difficile immaginare l’idea di sganciare una bomba da una tonnellata per uccidere un membro di Hamas, ma che finisce per uccidere un’intera famiglia come «danno collaterale», non era sempre accettata così facilmente da vaste porzioni della società israeliana. Nel 2002, ad esempio, l’Aeronautica israeliana bombardò la casa di Salah Mustafa Muhammad Shehade, all’epoca capo delle Brigate Al-Qassam, ala militare di Hamas. La bomba lo uccise, insieme a sua moglie Eman, sua figlia di 14 anni Laila e altre 14 persone, tra cui 11 bambini. Questo fatto provocò una sollevazione sia in Israele che nel mondo e Israele fu accusata di commettere crimini di guerra.

Queste contestazioni hanno fatto sì che l’esercito israeliano decidesse nel 2003 di sganciare una bomba più piccola, da un quarto di tonnellata, su una riunione dei vertici di Hamas, tra cui il leader sfuggente delle Brigate Al-Qassam, Mohammed Deif, che si svolgeva in un edificio residenziale a Gaza, nonostante il timore che non fosse abbastanza potente da ucciderli. Nel libro To Know Hamas, il veterano del giornalismo israeliano Shlomi Eldar scrisse che la decisione di utilizzare una bomba relativamente piccola fu dovuta al precedente di Shehade e alla paura che una bomba da una tonnellata avrebbe ucciso anche i civili nell’edificio. L’attacco fallì e gli alti ufficiali dell’ala militare fuggirono.

Nel dicembre 2008, nella prima grande guerra che Israele intraprese contro Hamas dopo la sua presa del potere a Gaza, Yoav Gallant, all’epoca capo del Comando Meridionale delle Idf, disse che per la prima volta Israele stava «colpendo le case familiari» dei vertici di Hamas con l’obiettivo di distruggerle, ma senza danneggiare le loro famiglie. Gallant sottolineò che le case venivano attaccate dopo che le famiglie erano state avvertite «bussando sul tetto», oltre che con una telefonata, dopo che era stato accertato che all’interno dell’edificio si svolgeva un’attività militare di Hamas.

Dopo l’operazione “Margine Protettivo” del 2014, durante la quale Israele iniziò a colpire sistematicamente dal cielo le case familiari, gruppi per i diritti umani come B’Tselem raccolsero testimonianze di palestinesi sopravvissuti a questi attacchi. Raccontarono che le case collassavano su se stesse, schegge di vetro tagliavano i corpi di coloro che erano all’interno, i detriti «avevano odore di sangue» e le persone venivano sepolte vive. Questa politica mortale continua oggi, in parte grazie all’uso di armamenti distruttivi e tecnologie sofisticate come Habsora, ma anche a un establishment politico e di sicurezza che ha allentato le redini della macchina militare israeliana. Quindici anni dopo aver insistito sul fatto che l’esercito faceva tutto il possibile per ridurre al minimo i danni civili, Gallant, ora ministro della Difesa, ha chiaramente cambiato tono. «Stiamo combattendo con animali e agiamo di conseguenza», ha dichiarato dopo il 7 ottobre.

Traduzione a cura di Giovanna Branca