Il fantasma di Edward Teller deve aver passeggiato intorno alla Commissione Nazionale sull’Intelligenza Artificiale. Il padre della bomba all’idrogeno non si è mai preoccupato troppo dei dubbi etici sull’invenzione di tecnologie mortali. Non era, per esempio, “il compito degli scienziati di determinare se una bomba all’idrogeno dovesse essere costruita, se dovesse essere usata, o come dovesse essere usata”. La responsabilità, comunque esercitata, è del popolo americano e dei suoi rappresentanti eletti.

L’applicazione dell’IA nei sistemi militari ha tormentato le menti etiche, ma ha eccitato alcuni leader e inventori. Il presidente russo Vladimir Putin ha magnificamente affermato che “sarebbe impossibile assicurare il futuro della nostra civiltà” senza una padronanza dell’intelligenza artificiale, della genetica, dei sistemi di armi senza equipaggio e delle armi ipersoniche.

Gli attivisti contro l’uso di sistemi di armi autonome in guerra stanno crescendo di numero. Il segretario generale delle Nazioni Unite António Guterres è uno di loro. “Macchine autonome con il potere e la discrezione di selezionare obiettivi e prendere vite senza coinvolgimento umano“, ha scritto su Twitter nel marzo 2019, “sono politicamente inaccettabili, moralmente ripugnanti e dovrebbero essere vietate dal diritto internazionale.” Anche il Comitato internazionale per il controllo delle armi robotiche, la Campagna per fermare i robot assassini di Human Rights Watch sono dedicati alla messa al bando dei sistemi di armi autonome letali. Analisti di armi come Zachary Kallenborn vedono questa posizione assoluta come insostenibile, preferendo un divieto più modesto sulle “armi a più alto rischio: sciami di droni e armi autonome chimiche, biologiche, radiologiche e nucleari“.

I critici di tali sistemi di armi sono stati tenuti a bada nel progetto di relazione della Commissione al Congresso. Questo documento ha davvero l’aria di uno scienziato pazzo al servizio sanguinario di un maestro. Ha senso, dato che il presidente è Eric Schmidt, un consigliere tecnico di Alphabet Inc, la società madre di Google, dove era il direttore esecutivo. Con Schmidt al timone, potremmo essere sicuri di uno spettacolo spogliato da ogni vincolo morale. “La promessa dell’IA – che una macchina possa percepire, decidere e agire più velocemente, in un ambiente più complesso, con più precisione di un umano – è un vantaggio competitivo in qualsiasi campo. Sarà usato per scopi militari, da governi e gruppi non statali.”

Nella sua relazione davanti al Comitato dei Servizi Armati del Senato il 23 febbraio, Schmidt ha sottolineato i “fondamentali” per mantenere l’ascendenza degli Stati Uniti. Questo includeva il mantenimento della competitività nazionale e la progettazione dell’esercito con questi fondamenti in mente. Ma per farlo l’establishment doveva tenere gli occhi aperti contro qualsiasi rivale pericoloso. (Schmidt conosce il Congresso abbastanza bene da sapere che i picchi di finanziamento e di spesa tendono ad essere legati all’identificazione delle minacce). Vede “la minaccia della superiorità cinese in aree tecnologiche chiave” come “una crisi nazionale“. In termini di IA, “solo gli Stati Uniti e la Cina” hanno “le risorse, il potere commerciale, il pool di talenti e l’ecosistema per guidare il mondo“. Nel prossimo decennio, Pechino potrebbe addirittura “superare gli Stati Uniti come superpotenza mondiale per l’IA“.

La deposizione di Schmidt punta generosamente alla tesi della minaccia cinese. “Mai prima d’ora nella mia vita” afferma “sono stato più preoccupato di essere sostituito da un rivale o più consapevole di ciò che un secondo posto significa per la nostra economia, la nostra sicurezza o il futuro della nostra nazione“. Temeva che tali preoccupazioni non fossero condivise nei circoli ufficiali, con il Dipartimento della Difesa che trattava “l’informatica come una priorità minore“. Lì, potrebbe consigliare le lezioni apprese nelle aziende brulicanti della Silicon Valley, dove i principi hanno vita breve. Quelli dedicati alla difesa potrebbero “costruire squadre intelligenti, superare progetti difficili e muoversi velocemente“. “I missili“, sostiene, dovrebbero essere costruiti “nel modo in cui le automobili sono fatte ora: usando una società di progettazione per sviluppare e simulare al computer“.

Tutto questo significa glorificare una forma meno repressiva di IA, soprattutto nelle sue applicazioni militari. Due giorni di discussione pubblica hanno visto il vicepresidente della commissione Robert Work esaltare le virtù dell’IA in combattimento. “È un imperativo morale seguire almeno questa ipotesi” affermando che “le armi automatiche non sparano indiscriminatamente a meno che non siano progettate per farlo“. Il diavolo è nell’umano, come è sempre stato.

In un modo che ricorda i dibattiti sulla condivisione delle armi atomiche del secondo dopoguerra, la commissione “esorta gli Stati Uniti a perseguire una strategia globale in stretta collaborazione con i nostri alleati e partner per l’innovazione e l’adozione dell’intelligenza artificiale che enfatizza i valori cruciali delle società libere e aperte”. Una coalizione suggerita di potenze e partner che la pensano allo stesso modo si concentrerebbe sul ruolo delle “tecnologie emergenti che rispettano le norme e i valori democratici” e “coordinerebbe le politiche per contrastare l’uso dannoso di queste tecnologie da parte dei regimi autoritari“. Si dimentica rapidamente il fatto che distinzioni come regimi autoritari e democratici hanno poco significato sulla punta di un arma.

Vengono anche suggeriti cambiamenti interni per licenziare qualche soggetto. Il Dipartimento di Stato si distingue quando si tratta di parlare di ciò che deve essere riformato. “Attualmente non c’è una direzione chiara per la politica o la diplomazia intorno alle tecnologie emergenti all’interno del Dipartimento di Stato, il che limita la capacità del Dipartimento di prendere decisioni strategiche nell’area tecnologica“. Quando si rivolgono al Dipartimento di Stato, gli alleati e i partner sono in difficoltà perché non sanno a quale funzionario rivolgersi su una serie di argomenti, che si tratti di AI, calcolo quantistico, 5G, biotecnologie o nuove tecnologie emergenti.

In generale, il governo degli Stati Uniti è stato colpito, rimproverato di operare, e criticato per operare “a velocità umana e non a velocità di macchina“. È in ritardo quando si tratta dello sviluppo commerciale dell’IA. Soffre di “deficit tecnici che vanno dal ridimensionamento digitale a politiche di acquisizione inadeguate, architettura di rete insufficiente o debolezze nel trattamento dei dati“.

La politica ufficiale del Pentagono, così com’è, è che i sistemi d’arma autonomi o semi-autonomi dovrebbero essere “progettati per permettere ai comandanti e agli operatori di esercitare livelli appropriati di giudizio umano riguardo all’uso della forza“. Nell’ottobre 2019, il Ministero della Difesa ha adottato vari principi etici riguardanti l’uso militare dell’IA, rendendo il Centro di Intelligenza Artificiale del Ministero della Difesa il punto focale. Questo include assicurare che “il personale del DoD eserciti un livello appropriato di giudizio e cura, pur rimanendo responsabile dello sviluppo, del dispiegamento e dell’uso delle risorse informatiche“. Il principio della “tracciabilità” è anche incluso, insieme al principio del controllo umano, con il personale che deve “possedere una comprensione appropriata della tecnologia, dei processi di sviluppo e dei metodi operativi applicabili alle attrezzature abilitate dall’intelligenza artificiale“.

La Commissione Nazionale si fa portavoce di tali protocolli riconoscendo che gli operatori, le organizzazioni e “il popolo americano” non sosterrebbero macchine basate sull’AI che non siano “progettate per essere prevedibili” e con “principi chiari” in mente. Ma non essendo moralmente vincolante, il campanello d’allarme diventa un semplice cigolio. Il rischio è “inevitabile” e non usare l’IA “per risolvere le vere sfide della sicurezza nazionale rischia di mettere gli Stati Uniti in una posizione debole“. Soprattutto contro la Cina.

Binoy Kampmark

Scelto e curato da Jean Gabin