Prima o poi AI ce la ritroveremo dappertutto, avanzano veloci gli algoritmi per il machine learning, le tecniche di mining, i sistemi predittivi e nuovi sistemi di profilazione. Attira una frase contenuta in una Risoluzione del Parlamento europeo sulla robotica del 16 febbraio 2017 dove si afferma che «è possibile che a lungo termine l’intelligenza artificiale superi la capacità intellettuale umana» (recante raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica (2015/2103(INL)).

Molti giuristi iniziano ad approfondire i possibili scenari e le correlazioni tra IA e diritto in genere e diritto penale. Si stanno formando possibili implicazioni derivanti dall’impiego delle tecnologie di AI, queste potrebbero essere in un prossimo futuro numerose e significative, in questo settore tutto nuovo i giuristi tentano velocemente di capire (al fine di non aggravare il ritardo del diritto) le implicazioni, prospettare questioni e soluzioni, e di aggiornare il diritto penale italiano davanti all’evoluzione tecnologica.

Il progresso “non chiede permesso” e irrompe: le tecnologie digitali irrompono molto più velocemente e non danno affatto tempo al diritto per organizzarsi e per abituarsi alle loro dirompenti innovazioni. Quindi anche il diritto penale si deve attrezzare per tenere il passo con questa rapidissima evoluzione tecnologica, deve verificare l’idoneità delle norme esistenti da applicare alle nuove tecnologie, valutare se è opportuno coniare delle regole ad hoc, oppure utilizzare norme già esistenti.

La nascita di AI sta impattando su:

  • le attività di law enforcement
  • polizia predittiva in forma di contributo per contrastare o prevenire la commissione di reati
  • uso di algoritmi per risolvere vertenze penali per semplificare il lavoro di un giudice
  • delineare la pericolosità criminale tramite algoritmi predittivi, incrociare dati per fare emergere relazioni che consentano di profilare le persone e prevederne i successivi comportamenti come autore di un reato.

Non è stata ancora creata una definizione giuridica definitiva per AI, non esiste una definizione univoca e universalmente condivisa, come pure di robotica (un ambito in cui innumerevoli sono le applicazioni di IA), non esiste. In linea di massima una AI la si dovrebbe riconoscere da cinque attributi:

  • la capacità di comunicazione
  • la conoscenza di sé
  • la conoscenza della realtà esterna
  • una condotta orientata al perseguimento di un fine
  • l’esistenza di un certo grado di creatività, quali la capacità di assumere decisioni alternative dove il piano di azione iniziale fallisca o non sia realizzabile.

Quanto detto permette di affermare che è ancora prematuro parlare di intelligenza artificiale, in realtà allo stadio attuale dell’arte è ancora una disciplina ingegneristica dove i ricercatori di AI stanno creando una “razionalità” che porta la macchina a scegliere la migliore azione da intraprendere per conseguire un determinato obiettivo che ottimizza con le risorse a disposizione.

La razionalità dei sistemi di IA, dal momento in cui acquisisce i dati —>> al momento in cui fornisce un risultato, dipende in grande misura dalla correttezza logica e dalla completezza dei dati raccolti. Infatti se i dati utilizzati per alimentare o addestrare il sistema sono errati/distorti, il sistema non sarà in grado di generare una risposta o una azione corretta e potrebbe adottare decisioni errate. I rapidi progressi compiuti di recente da AI sono la combinazione di questi fattori: l’aumento delle capacità computazionali, l’aumento dei dati digitali e IoT (volgarmente chiamato Internet delle Cose). Sempre la maggior diffusione di sistemi di machine learning ecco come possono essere descritti per il diritto: un software che impara autonomamente dall’ambiente esterno (tramite i dati che immagazzina ed elabora) e modifica le proprie prestazioni adattandole agli esiti del procedimento di apprendimento.

In sintesi (Comunicazione del 2018 elaborata dalla Commissione europea, intitolata “Artificial Intelligence for Europe”) così la UE definisce AI: «artificial intelligence (IA) refers to systems that display intelligent behaviour by analysing their environment and taking actions – with some degree of autonomy – to achieve specific goals. IA-based systems can be purely software-based, acting in the virtual world (e.g. voice assistants, image analysis software, search engines, speech and face recognition systems) or IA can be embedded in hardware devices (e.g. advanced robots, autonomous cars, drones or Internet of Things applications)». Quindi la definizione odierna di Intelligenza artificiale o sistemi di IA è: «sistemi software (ed eventualmente hardware) progettati dall’uomo che, dato un obiettivo complesso, agiscono nella dimensione fisica o digitale percependo il proprio ambiente attraverso l’acquisizione di dati, interpretando i dati strutturati o non strutturati raccolti, ragionando sulla conoscenza o elaborando le informazioni derivate da questi dati e decidendo le migliori azioni da intraprendere per raggiungere l’obiettivo dato. I sistemi di IA possono usare regole simboliche o apprendere un modello numerico, e possono anche adattare il loro comportamento analizzando gli effetti che le loro azioni precedenti hanno avuto sull’ambiente. Come disciplina scientifica, l’IA comprende diversi approcci e diverse tecniche, come l’apprendimento automatico (di cui l’apprendimento profondo e l’apprendimento per rinforzo sono esempi specifici), il ragionamento meccanico (che include la pianificazione, la programmazione, la rappresentazione delle conoscenze e il ragionamento, la ricerca e l’ottimizzazione) e la robotica (che comprende il controllo, la percezione, i sensori e gli attuatori e l’integrazione di tutte le altre tecniche nei sistemi ciberfisici)»

Dopo aver chiarito sopra alcuni necessari passaggi, andiamo a vedere alcuni scenari in cui i sistemi di AI possono assumere implicazioni di rilevanza penale.

Sono sempre più utilizzate per attività d’indagine, le autorità e le agenzie di law enforcement stanno esplorando i potenziali di AI per il loro lavoro. Con i dati ottenuti la polizia ha sviluppato metodi e strumenti sofisticati per le varie attività di analisi, per identificare modelli/pattern, per prevedere rischi e sviluppare nuove strategie. Le forze dell’ordine stanno testando e utilizzando software di analisi di video e immagini, sistemi di riconoscimento facciale, identificazione biometrica, droni autonomi e strumenti di analisi predittiva per prevedere le “zone calde” del crimine o per identificare/seguire criminali ad elevata pericolosità. Questo uso vedrà una rapida crescita nei prossimi anni, fino ad arrivare alla “predictive policing”. Già adesso si stanno sviluppando macchine robotiche per attività di pattugliamento, sorveglianza, disinnesco di bombe, individuazione di atteggiamenti sospetti, riconoscimento facciale.

Però qua si sollevano una serie di problematiche: eccessivo controllo sulle persone, viene a mancare la privacy, il rischio che questa mole di dati raccolta – attraverso delle applicazioni – possa essere manipolata abusivamente, qualcuno potrebbe sottrarli, deformarli e creare un grave pregiudizio per le persone colpite. Non sono sistemi infallibili e in caso di errore diventa difficile individuare il responsabile, ha sbagliato l’uomo o la macchina? Il buon senso indica che sarà sempre necessaria la presenza di operatori della polizia, rimangono pur sempre applicazioni che vanno monitorate accuratamente. In futuro, dal punto di vista giuridico, bisognerà elaborare un preciso quadro normativo che ne regoli il legittimo utilizzo, nel rispetto dei diritti fondamentali delle persone.

Il primo software predittivo realizzato è il sistema Risk Terrain Modeling (RTM), adatto per seguire la micro criminalità, in USA e in UK il sistema PredPol ha aiutato le forze dell’ordine a ridurre drasticamente i reati minori. I sistemi di polizia predittiva possono apportare grandi benefici nella prevenzione di alcuni tipi di reati, ma il loro utilizzo non è ancora stato regolato. Altro punto negativo, queste predizioni sono solo mirare alla riduzione del crimine, ma non risolvono i fattori criminogeni collegati a fattori sociali, ambientali, individuali ed economici. Secondo punto molto negativo: la maggior parte di questi software sono coperti da brevetti depositati da aziende private, quindi chi li utilizza non può disporre della piena comprensione dei meccanismi del loro funzionamento, questo reca grave pregiudizio, mancanza di trasparenza e non permette di verificare la qualità e l’affidabilità dei risultati.

AI e valutazione della pericolosità criminale: gli algoritmi predittivi osservano un individuo, alcune sue determinate caratteristiche e davvero può predire che in futuro possa commettere un nuovo reato? Di solito la polizia si affida all’intuizione, all’esperienza e al buon senso, mentre in futuro – teniamo in considerazione che però questo è già presente in alcune nazioni – queste valutazioni prognostiche della pericolosità criminale saranno affidate a specifici algoritmi predittivi. Questi attingono e rielaborano quantità enormi di dati al fine di far emergere relazioni, coincidenze, correlazioni, tutto questo permette di profilare una persona e di prevedere i suoi comportamenti.

E’ evidente che si sta sviluppando una strada – a senso unico – di valutazione del rischio individuale, questa valutazione evidence-based della pericolosità criminale presuppone l’individuazione di molti fattori di rischio predittori:età, sesso, origine etnica, livello di scolarizzazione, situazione familiare e lavorativa, posizione sociale, precedenti penali, luoghi e persone frequentati, cerchia familiare e rete di conoscenze, dove si vive, cartella clinica e psicologica, contesto economico e sociale, consumo di droghe o alcolici, una lunga serie di fattori che vengono raccolti e permettono di identificare la pericolosità criminale.

Attenzione, qua si crea una scala e l’attribuzione di un score a tutti i soggetti presi in esame. Si viene pre-valutati per pericolosità criminale. Si creano valutazioni attuariali, se queste poi vengono affidate – come di fatto già avviene negli Stati Uniti – a sistemi di intelligenza artificiale dotati di algoritmi predittivi, emergono due fattori: sicuramente ci saranno grandi vantaggi ma si scateneranno anche grandi rischi. Questi Public Safety Assessment (PSA) americani già ora forniscono ai giudici i fattori di rischio del soggetto sotto valutazione (database di 1,5 milioni di casi provenienti da trecento giurisdizioni di tutti gli USA), dove in base alle informazioni si attribuisce al medesimo un punteggio.

Il più famoso e utilizzato algoritmo predittivo negli USA è COMPAS (Correctional Offender Management Profiling for Alternative Sanctions) un software elaborato e commercializzato da una società privata, la Northpointe. Sull’utilizzo di COMPAS sono state sollevate alcune critiche in ordine alla sua effettiva validità predittiva e sulla sua imparzialità. In base a diverse ricerche emerge che le previsioni formulate da COMPAS erano inaffidabili e risentivano di distorsioni su base razziale. Anche COMPAS è un prodotto coperto da segreto industriale che impedisce la divulgazione di informazioni relative al suo metodo di funzionamento.

Questi algoritmi predittivi formulano valutazioni di pericolosità criminale più accurate, ma sollevano molte perplessità sull’effettiva validità predittiva e sull’imparzialità di questi algoritmi, si potrebbero avere risultati poco affidabili o comunque discriminatori. Al momento in Europa gli algoritmi predittivi non hanno avuto accesso nelle nostre aule penali (vedi art. 15 della direttiva 95/46/CE, confluito nell’art. 22 del nuovo Regolamento europeo in materia di protezione dei dati personali, entrato in vigore il 25 maggio 2018) e ogni persona ha il diritto di non essere sottoposta ad una decisione che produca effetti giuridici – o abbia effetti significativi nei suoi confronti – fondata esclusivamente su un trattamento automatizzato di dati destinati a valutare taluni aspetti della sua personalità.

Al momento in UE si pone l’accento sul principio della trasparenza, dove si evidenzia la necessità di indicare la logica alla base di ogni decisione. Quindi non siamo pronti a delegare valutazioni che possono incidere significativamente sui diritti fondamentali di una persona, come la valutazione della pericolosità criminale.

Al momento attuale non si può imputare una AI perché:

  • la sua autonomia è di natura puramente tecnologica
  • il suo livello dipende dal grado di complessità con cui è stata progettata l’interazione
  • più i robot sono autonomi e meno si possono comprendere come certi strumenti possono essere sfruttati da certi attori.

Si sconfina in un settore dove innegabilmente viene a mancare la responsabilità, principi e regole volte a chiarire la responsabilità legale dei vari attori per azioni e omissioni. Ammettiamo per ipotesi che raggiunto un certo livello si arrivi ad imputare una colpa a un robot/AI, quando le cause non possono essere ricondotte a un soggetto umano specifico, ebbene si entra nel campo dove “una azione o una omissione” è legata a un robot/AI che ha causato danni che probabilmente si potevano evitare.

L’intelligenza artificiale solleva la questione della sua natura alla luce delle categorie giuridiche esistenti e dell’eventuale necessità di creare una nuova categoria con caratteristiche specifiche e implicazioni proprie. Al momento l’attuale quadro giuridico non è in grado di giudicare i danni causati dalla nuova tecnologia, maggiormente se questa è attualmente in fase “di adattamento e di apprendimento” che implica un certo grado di imprevedibilità nel loro comportamento (rif. Imparano in modo autonomo in base alle esperienze diversificate, interagiscono con l’ambiente in modo unico e imprevedibile).

AI delinquenti, asservite a scopi criminali e utilizzate per la commissione di reati: prima o poi si arriverà al caso di nuovi crimini informatici, economici ed ambientali, l’intelligenza artificiale può diventare lo strumento per commettere illeciti. Già ora sono presenti bot, ovvero programmi informatici capaci di eseguire anche operazioni di acquisto e vendita ad una velocità inaccessibile per qualsiasi essere umano. Oppure pensiamo agli algoritmi che possono manipolare abusivamente il mercato, in questo caso si parla di HFT (High Frequency Traders), algoritmi capaci di eseguire migliaia di operazioni al secondo. Un loro uso distorto può provocare improvvise e rapide oscillazione dei prezzi sui mercati finanziari, anche con rilevanza penale.

Nell’era dei reati legati AI cresce la vulnerabilità umana connessa ad impieghi dell’intelligenza artificiale, tonnellate di dati sul comportamento e sullo stile di vita delle persone che tramite IoT instaura rapporti di dipendenza da macchine e sistemi di servizio che: si muovono per noi, lavorano per noi e commettono/subiscono reati.

L’uomo si ritrova di nuovo in balia delle sue creazioni, all’inizio è sempre sguarnito dei presidi “tradizionali” di protezione, occorre mettere in campo nuove specie di reato (o sfruttare quelle già esistenti) al fine di creare nuove tutele.

Machina delinquere non potest oppure Machina delinquere potest? Al momento è ancora tutto riconducibile all’uomo, ma in futuro potrebbe essere diverso, potrebbe avvenire il passaggio “da mero strumento” a “sistema in grado di avere capacità di apprendimento e di autonomia decisionale”. Un sistema dove IA diventa l’autore del reato. Una AI che dovrà rispondere penalmente di reati.

Sembra fantasioso ma poi ci sarà anche la condivisione delle responsabilità. Molto presto arriveremo a forme più avanzate di AI che, a differenza di altri sistemi innovativi fondati sull’automazione, segnerà un limite importante alla capacità di tenuta degli standard normativi esistenti. Quando le AI saranno in grado di porre in essere azioni e movimenti “indipendentemente dal contributo del programmatore e/o dell’utente”, che non risalgono a comandi precedentemente impartiti (sia nella fase di progettazione che nella fase di utilizzo), e che non sono imputabili giuridicamente a nessuno, ci troveremo giuridicamente in un campo sconfinato e minato.

  • Coi droni si genera una complessa struttura gestionale dove si è distanti dal campo dell’azione, è un comando frazionato dove l’operatore non si identifica con l’agente dell’azione. Una catena di comando remota è separata e distante dallo scenario di guerra e non è condizionata allo stesso modo. Questa differenza sicuramente incide sul modo in cui gli agenti e gli operatori si assumono la responsabilità delle proprie decisioni, a maggior ragione se si utilizzano dei sistemi di IA.
  • Comunque al momento non è possibile deresponsabilizzare l’uomo e responsabilizzare la macchina. Siamo ancora lontani dal giorno dove si innesca «l’alienazione della responsabilità umana». Sempre al momento non è possibile scaricare la «responsabilità morale umana» quando si usano droni, perché siamo ancora al livello di catena di comando molto complessa a cui risale sempre una responsabilità.
  • Siamo ben lontani dalla fase di deresponsabilizzazione morale dell’agente umano. L’unico problema è che la nuova tecnologia tende a deresponsabilizzare, ma non abbastanza da configurare una responsabilità penale direttamente imputabile ai sistemi di IA.

I sistemi di IA possono essi essere considerati “persone”, o essere equiparati al fine di una attribuzione di responsabilità penale? Possiamo parlare di “capacità di intendere e di volere” in relazione ad un software? Possiamo configurare una “colpa” o addirittura un “dolo” a un algoritmo?

Io dico NO, ma qualcuno dice SI’.

Alcuni studiosi affermano che a causa dei recenti progressi fatti nella robotica, nella percezione, nel machine learning, la nuova generazione di sistemi capaci di rivaleggiare con le capacità umane in determinati compiti specifici, ebbene questi sistemi sarebbero più autonomi di quanto le persone possano percepire. Si parla di sistemi in grado di imparare dalle loro stesse esperienze e di intraprendere azioni non contemplate dai loro progettisti. Questi studiosi confermano che la fase “i computer fanno solo quello che sono programmati a fare” non è più vera, parlano di sistemi di IA evoluti, sofisticati, quindi capaci di agire in autonomia, di assumere e di attuare decisioni proprie che non sono prevedibili e riconducibili ai loro programmatori.

Se fosse vero in futuro si dovrà maturare una nuova teoria della responsabilità – anche penale – dei sistemi di intelligenza artificiale. Per il diritto in futuro AI potrebbe diventare un agente che interagisce con l’ambiente circostante ed è in grado di alterarlo in modo significativo. In questo contesto la questione della responsabilità giuridica – derivante dall’azione nociva di un robot – diventa essenziale. Questo prevede una nuova e attenta riflessione in dottrina, al fine di supportare il futuro legislatore.

Quali pene per i sistemi di AI? Quali sanzioni comminare a tali sistemi?

Qua mi scappa da ridere, o da piangere se volete. Quale pena infliggiamo al potenziale condannato? Lo spegnimento definitivo o temporaneo della macchina (al fine di sottoporlo ad un nuovo autoapprendimento o a una nuova forma di training) sembra essere il più sensato.

Eva, che cosa vedi quando chiudi gli occhi?

Sono pure ipotesi rivolte al futuro, ma emerge sempre l’attuale assenza di una regolamentazione normativa che potrebbero presto divenire realtà, e questa assenza normativa comporterebbe conseguenze drammatiche. Alessia C. F. (ALKA)