A Venezia la città diventa un apparato di sorveglianza. A Ivrea un esperimento per sviluppare un modello nazionale di smart city: identità digitale, economia comportamentale e monete virtuali. Di Matte Galt
Oggi parliamo di due casi diversi ma uniti dallo stesso filo rosso, quello delle smart cities e dell’improvviso boom di sistemi pervasivi di sorveglianza e controllo del comportamento delle persone.
La storia inizia con un tweet del sindaco di Venezia Luigi Brugnaro, che si rallegrava della ripartenza della stagione turistica e della sperimentazione con la prenotazione online che sarà obbligatoria per accedere alla città come turista.
A due giorni di distanza da quel tweet sul Corriere del Veneto usciva un’altra notizia, sempre connessa alla stagione turistica veneziana, che ha catturato la mia attenzione. Il titolo era: “Venezia, 20mila turisti-fantasma sono in città ma non risultano: le tracce dei telefoni li inchiodano”.
Un passaggio in particolare dell’articolo mi aveva interessato:

L’articolo non spiegava cosa fosse la Smart Control Room di cui parlavano, ma specificava che grazie a questa l’amministrazione di Venezia riesce a vedere qualsiasi cellulare in città, la loro provenienza e dove si trovano.
Una questione che valeva la pena di approfondire, e così ho fatto.
La “Smart Control Room” di Venezia
A quanto pare, la Smart Control Room (SCR) è una sorta di cabina di regia operativa h24 collegata a tutti i sistemi di sorveglianza e sensori della città. È stata sviluppata da Venis (Venezia Informatica e Sistemi SpA) insieme a TIM e inaugurata a settembre 2020.

Sul sito di TIM la SCR è descritta in questo modo:
“Una centrale di controllo unificata, dotata delle ultime tecnologie e attrezzata per ricevere le informazioni di quanto sta accadendo non solo nella città di Venezia, ma nell’intera area metropolitana. […]
Un’enorme quantità di dati e flussi video arriva alla Smart Control Room dalle centrali e dai sensori dislocati sul territorio. Si tratta ad esempio del numero di persone presenti a Venezia, la tipologia di barche nei canali, i passaggi dei mezzi pubblici stradali e acquei, il flusso dei turisti, le previsioni meteo e la situazione dei parcheggi. Ad analizzarli, con l’aiuto di sistemi di elaborazione che garantiscono la privacy […]“
Scavando un po’ di più ho trovato poi un video di un evento durante la Milano Digital Week 2021, in cui Susanna Jean di TIM parlava proprio del caso “Smart Venice”, descrivendolo così (1) :
“Un progetto innovativo composto da diverse componenti e da un layer orizzontale che raccoglie informazioni in tempo reale, con videoanalisi, sensoristica, IoT, e tutti i sistemi preesistenti. L’obiettivo è dare all’amministrazione e alle forze dell’ordine una visione in tempo reale e continuativa di ciò che avviene, anche grazie a machine learning e data analytics per previsioni e simulazioni. Il layer in Cloud si sostanzia in una Smart Control Room fisica, che è il luogo di aggregazione delle varie componenti.”
Passando poi al sito di Venis SpA, che ha curato la parte tecnologica, ho trovato queste informazioni:
“Nella SCR confluiscono le immagini delle 400 telecamere di sorveglianza, le previsioni meteo, i dati sulle presenze fisiche sul territorio, che permettono per esempio di individuare eventuali assembramenti (elemento critico soprattutto in questo periodo di emergenza) e dati sull’andamento del traffico sia su acqua che su terra. […] Tutti questi dati vengono poi rielaborati, garantendo il rispetto della privacy, per ottimizzare i servizi pubblici e progettarne di nuovi, basandosi su dati scientifici.“
Ricapitolando: sensori, telecamere, Big Data, IoT e machine learning. Il tutto, impacchettato e disponibile all’uso per amministratori e forze dell’ordine nella Smart Control Room.
Sia TIM che Venis ci tengono a sottolineare che è tutto fatto “garantendo il rispetto della privacy”. Eppure, a parte le dichiarazioni di marketing, non ho trovato nessuna garanzia concreta.
Da nessuna parte sono riuscito a trovare informazioni, anche di base, sul trattamento di dati personali; così come non sono riuscito a trovare nessuna informazione in merito alle garanzie per i diritti e libertà delle persone che si trovano ad essere sorvegliate h24 da una centrale operativa di questo genere.
Qualcuno potrebbe dire: “ma sai Matte, sono dati aggregati, quindi anonimi, la privacy è tutelata così”. Non proprio.
Pur ammettendo, come plausibile, che agli operatori della SCR arrivino soltanto dati aggregati, quei dati sono frutto di un’elaborazione che viene fatta a monte (da TIM e/o altri soggetti) a partire da dati personali e metadati (2) ottenuti grazie a sensori, telecamere e reti telefoniche presenti in città.
Se poi vogliamo far fede a quanto scritto dal Corriere del Veneto, non possiamo certo negare di essere in presenza di un trattamento di dati personali molto pervasivo: “il sistema riesce a vedere qualsiasi cellulare in città […] si contano gli smartphone alle 4 di notte. Se ne riesce a comprendere la provenienza e dove si trovano”.
È fuori da ogni dubbio che quello realizzato a Venezia sia un trattamento che prevede un utilizzo sistematico di enormi quantità di dati per l’osservazione, il monitoraggio e il controllo delle persone, oltre che un trattamento di metadati per ragioni organizzative e di “sicurezza” della città.
Essendo il trattamento fatto per conto del Comune, è questo che deve garantire il rispetto dei diritti e libertà dei cittadini e mitigare i rischi che derivano dal trattamento di dati – come previsto anche dalla normativa europea.
Dove sono trasparenza, proporzionalità, legittimità, e valutazione del rischio? Chissà…
Questa particolare tipologia di trattamento di dati rientra anche nelle categorie ad alto rischio individuate dal Garante Privacy nel 2018, per i quali è obbligatorio svolgere una valutazione d’impatto:

E che dire poi del tema sicurezza, che viene ripreso molte volte da tutti i comunicati stampa? In che modo è stato valutato l’impatto positivo di questa sorveglianza pervasiva sulla sicurezza dei cittadini? Ma soprattutto – sicurezza da cosa?
Come sottolineavo anche in questo articolo la politica italiana da anni fa perno sulla percezione di sicurezza (o di insicurezza) per giustificare l’uso sempre più intensivo di tecnologie di sorveglianza fisica. Ma oltre la percezione, non c’è nulla. Anzi: i dati dicono il contrario: il tasso di criminalità solitamente non ha nulla a che fare con la quantità di videocamere in città.
Prenotazioni e control room
Per chiudere il cerchio su Venezia mi ricollego infine alla notizia sulla sperimentazione delle prenotazioni per accedere alla città.
Che succede quando uniamo prenotazioni riferibili a persone identificate a un sistema di controllo come quello della SCR? Beh, succede che abbiamo tutti i presupposti per far diventare Venezia una gabbia a cielo aperto.
Il sistema di prenotazione consentirà all’amministrazione comunale di identificare ogni singola persona in visita presso Venezia, mentre la SCR permetterà di sorvegliarne spostamenti e modalità di soggiorno. Incrociare i dati, secondo necessità, sarà un gioco da ragazzi.
I turisti (italiani e stranieri) sono consapevoli che saranno sottoposti a sorveglianza continuativa dal momento in cui metteranno piede a Venezia fino al momento in cui usciranno? E i residenti?
L’esperimento “Smart Ivrea”
Durante le ricerche sulla Smart Control Room mi sono imbattuto in un altro progetto a cui TIM ha partecipato, quello di “Smart Ivrea”.
Il progetto “Smart Ivrea” è un’iniziativa di cui AgID è capofila, finanziata dal MISE. È anche il primo prototipo per la sperimentazione di una piattaforma nazionale per la gestione delle comunità intelligenti (3).
La sperimentazione ha avuto inizio nel primo trimestre del 2020 e oggi è quasi arrivata alla sua conclusione. L’idea è di replicare e scalare a livello nazionale la piattaforma, in base ai risultati del test su Ivrea.
Gli obiettivi della piattaforma sono descritti nella documentazione relativa ai fondi di finanziamento del MISE:
“La novità risiede nello sviluppo di un modello Smart cities-as a service (Scaas), volto ad ottimizzare l’erogazione dei servizi pubblici esistenti, introducendo alcuni principi dell’economia comportamentale (sistema premiale per l’assunzione di comportamenti virtuosi del cittadino, sentiment analysis) e della governance partecipata (eVoting e crowdfunding), determinando una partecipazione attiva del cittadino alla vita sociale, culturale e politica del territorio, arrivando fino al lancio del primo ecosistema nazionale di moneta virtuale (Ivrea-Coin), attraverso cui il cittadino possa acquistare sia i servizi erogati dall’amministrazione che, eventualmente, quelli offerti dalle PMI.
Indagando sul funzionamento della piattaforma ho trovato un’intervista a Marco Pittorri di Trust Technologies (partner TIM), in cui descrive così il sistema (4) :
“I cittadini possono accedere tramite app ai servizi. L’utente si autentica con identità certificata SPID, che viene poi portata su blockchain e associata a un ID wallet usato dal cittadino con due funzioni principali: per pagare servizi pubblici (autobus, imposte, ecc.) e per ricevere indietro una premilità in funzione del corretto svolgimento del suo ruolo di cittadino: pagando tasse in modo regolare, usando servizi pubblici o comprando su negozi convenzionati per valorizzare economia locale, riesce a ottenere indietro IVREA COIN, che potrà riutilizzare per pagare servizi del Comune. Il vantaggio per i cittadini è la partecipazione alla vita del Comune e la premiazione del comportamento corretto.

Il fulcro del progetto gira intorno al concetto di economia comportamentale e degli Ivrea Coin, che incentivano il cittadino a compiere sono i comportamenti ritenuti corretti da chi ha sviluppato e implementato il sistema.
I sindaci italiani si lasciano ammaliare da progetti spinti da tecnocrati alla ricerca di gloria e fondi pubblici, in un periodo storico dove intelligenza artificiale, IoT e blockchain sono le buzzwords per ottenere ogni tipo di finanziamento.
Vendono questi sistemi con belle parole, presentazioni e comunicati stampa accattivanti. Ci dicono che sono per la nostra sicurezza e per l’efficienza pubblica. Che l’innovazione è bella. Che le persone saranno al centro di ecosistema di servizi.
La mia sensazione è che, sì, l’uomo sarà sempre più al centro… ma di un recinto hi-tech; come bestiame al pascolo, in attesa della macellazione.
Nudging e hypernudging
Il tema dell’economia comportamentale è strettamente legato a quello della “nudge theory” sviluppata da Thaler e Sunstein nel 2008. Definivano il “nudge” così:
“A nudge, as we will use the term, is any aspect of the choice architecture that alters people’s behavior in a predictable way without forbidding any options or significantly changing their economic incentives.”
Dalla loro definizione capiamo due cose: il nudge è il risultato di una scelta compiuta da chi pensa e sviluppa un determinato sistema, che può essere lo scaffale del supermercato come anche un’app legata alla smart city. È un meccanismo che, senza vietare o obbligare la persona verso determinate scelte, riesce ad alterare il loro comportamento in modo prevedibile.
In sostanza, il nudge è un meccanismo per standardizzare i comportamenti umani e renderli prevedibili.
Quando gli incentivi sono collegati a sistemi digitali pervasivi, con tecnologie di intelligenza artificiale e Big Data in grado di simulare e prevedere i comportamenti umani, la questione si complica parecchio.
Qualcuno parla, in questi casi, di hypernudging.
Gli algoritmi di machine learning sono spesso usati per elaborare dati relativi alle decisioni e azioni delle persone, come accade ad esempio sui social network, creando il c.d. effetto “filter bubble”
(NDR: argomento trattato anche qua su ORAZERO in https://www.orazero.org/la-bolla-epistemica-e-la-narrativa-imperante/ e https://www.orazero.org/la-nuova-pandemia-il-tifo-da-stadio-nel-conflitto-russo-ucraino-di-roberto-bonuglia/) :
l’algoritmo raccoglie dati sulle nostre interazioni e ci propone contenuti sulla base delle nostre azioni passate. Così si instaura un circolo vizioso retroattivo, in cui la persona viene spinta a compiere determinate azioni in base alle scelte fatte in precedenza.
L’effetto hypernudging porta a una coercizione subdola: ciò che sembra una scelta è in realtà un set definito di opzioni standardizzate create dal sistema. Il contrario del libero arbitrio e della libertà di autodeterminazione.
La negazione di ciò che ci rende umani
Nel 1998 James C. Scott (5) affermava che ogni tentativo, da parte dello Stato, di razionalizzare, semplificare e standardizzare la società ha sempre portato alla creazione di forze autoritarie, che spesso sfogano in veri e propri totalitarismi e tragedie umane.
La Cina è stata forse tra i primi paesi al mondo a teorizzare su questi aspetti, con il famoso paper di Lin Junyue di cui parlavo qui. Lo scopo era incentivare gli individui a compiere determinati comportamenti per modellare e razionalizzare la società nella sua interezza.
Come dico spesso, il problema degli incentivi è proprio che funzionano.
Nell’articolo “Cittadinanza a punti e Stato etico, da Roma a Bologna”, dicevo che i sistemi di social scoring sono la messa in pratica dello Stato Etico, in cui il cittadino diventa un ingranaggio del sistema, senza alcuna vera libertà di scelta.
Non è un caso che si parli sempre di comportamenti “virtuosi” o “corretti”: sono aggettivi necessari a rafforzare l’idea della rettitudine e dignità delle persone soltanto all’interno della collettività, formata da persone che si comportano “correttamente”, secondo standard prestabiliti da terzi. Chi fuoriesce dagli standard, resta fuori dalla collettività, perdendo quindi ogni dignità di cittadino. In parte, lo abbiamo visto col Green Pass.
I sistemi di social scoring/premiali sono il rifiuto di ogni individualismo, pensiero critico e comportamento divergente dallo standard. L’evoluzione umana si fonda sull’azione orientata al futuro e sulla sperimentazione dell’ignoto. Gli algoritmi invece funzionano al contrario: ragionano solo in base al passato. Una società umana regolata dagli algoritmi è una società umana immobile, priva di morale e incapace di evolvere. In pratica, la negazione di tutto ciò che ci rende esseri umani.
- FONTI:
1 Testo parafrasato, link all’intervista - 2 Per metadati si intendono quelle informazioni non direttamente riferibili a persone fisiche, ma chscrivono eventi, azioni o altre informazioni. Un esempio tipico di metadato sono i dati di localizzazione (longitutine e latitudine di un dispositivo in un determinato momento).
- 3 https://www.agid.gov.it/it/agenzia/stampa-e-comunicazione/notizie/2020/01/10/al-smart-ivrea-project
- 4 Testo parafrasato, link all’intervista
- 5 Seeing Like a State: How Certain Schemes to Improve the Human Condition Have Failed