Dopo Verona, anche Trento utilizza la sorveglianza tecnologica di massa. Per strada, telecamere e microfoni raccolgono dati e li inviano all’intelligenza artificiale. Quest’ultima li elabora, eventualmente li incrocia con ciò che desume dai social media e, quando lo ritiene opportuno, chiede l’intervento della polizia municipale.

Lo scopo, dice in sostanza il comunicato stampa del Comune, è disinnescare i potenziali pericoli prima che essi si manifestino e rendere dunque la città più sicura.

Praticamente, si vogliono prevedere i reati. Trento non usa questo concetto, ma lo si ritrova in un’analoga iniziativa lanciata a Caorle due anni fa.

COME FUNZIONA LA SORVEGLIANZA DI MASSA

I dati elaborati dall’intelligenza artificiale a Trento sono anonimizzati. Quindi, a differenza di ciò che fanno le polizie politiche, la sorveglianza non è applicata ai comportamenti ritenuti censurabili di un singolo individuo, o di ciascun singolo individuo. È applicata invece solo alle situazioni.

Tuttavia – proprio come piace alle polizie politiche di tutto il mondo – un apparato di sorveglianza tecnologica di massa come quello di Trento può essere utile anche per rendere impossibile qualsiasi protesta. In teoria, esso è dedicato esclusivamente a cose tipo schiamazzi, scippi, risse. Ma…

Come si deduce dai dettagli del comunicato stampa (per leggerli, bisogna scaricare un file), a Trento sono in corso due progetti finanziati dall’Unione europea che utilizzano raccolta dati ed intelligenza artificiale per proteggere la pace urbana.

Un terzo progetto, anch’esso finanziato dall’Ue e basato su raccolta dati ed intelligenza artificiale, è invece appena terminato. Si chiamava Protector ed era destinato a proteggere i luoghi di culto da attacchi terroristici e atti d’odio. Univa i dati delle telecamere di sorveglianza a quelli ricavati da Twitter e YouTube.

Come sia andata la sperimentazione e se sia stata utile, il comunicato stampa del Comune non lo dice e non è facile saperlo. Per leggere i report relativi al progetto – quelli complessivi, non quelli relativi a Trento – è infatti necessaria un’autorizzazione.

È in corso a Trento fino al 2025 l’evoluzione di Protector: il progetto Precrisis. Riguarda “vulnerabilità degli spazi pubblici urbani” nonché “attacchi terroristici ed atti violenti”. Utilizza, oltre ai dati di non meglio definiti sistemi di sorveglianza (presumibilmente telecamere e microfoni in strada), anche dati che provengono dai social media. Inoltre cerca di individuare la “disinformazione” online.

DISINFORMAZIONE E ALTRI PROBLEMI

Ma in che cosa consiste la disinformazione, magari nelle critiche al pensiero dominante e alle decisioni delle autorità? Come disinformazione, a suo tempo, sono state etichettate ad esempio le obiezioni ai richiami dei vaccini Covid. Successivamente, perfino il Wall Street Journal le ha fatte proprie.

Lo stesso ragionamento vale per le “emozioni di rabbia” o “di odio” che Precrisis si propone di intercettare. Il sistema prende in considerazione solo quelle dirette ad una minoranza etnica, religiosa o culturale oppure considera anche gli stati d’animo che portano ad indirizzare – diciamo – pittoresche espressioni di esasperazione a politici nazionali e locali?

Le domande non trovano risposta immediata nelle informazioni pubblicamente disponibili e valgono anche per Marvel, l’altro progetto di Trento. Telecamere e microfoni al parcheggio Zuffo, in piazza Santa Maria Maggiore, in piazza Duomo e in piazza Fiera per riscontrare “situazioni di pericolo legate alla sicurezza”, controllare il traffico ed individuare affollamenti. Se gli algoritmi appurano che è opportuno, inviano un alert affinché sia possibile intervenire a disinnescare il pericolo prima ancora che prenda corpo: cioè quando esso è soltanto potenziale.

Però l’affollamento sul quale Marvel vigila, per dire, può preludere anche ad un pacifico flash mob di finora legittima protesta. La giurisprudenza dice che per un flash mob in strada non è necessario chiedere autorizzazioni, neanche se ci sono slogan politici, purché si svolgano attività lecite e purché non si travalichi verso odio razziale o proclami sovversivi.

E poi c’è anche la faccenda dell’intelligenza artificiale chiamata ad elaborare i dati e a stabilire quando inviare un alert. A volte l’intelligenza artificiale si comporta in realtà da scemenza artificiale.

La realtà ed i comportamenti umani hanno infinite possibili sfumature, infinite possibili variabili. L’intelligenza artificiale è in grado di operare solo sulla base di precedenti già noti. Questi ultimi, ovviamente, non catalogano l’intera gamma del possibile. Ma se un’intelligenza artificiale prende una decisione, o la suggerisce, quale mai dipendente pubblico si prenderebbe la responsabilità – cioè la rogna acuta – di agire di testa propria in un altro modo…

Come se non bastasse, con gli algoritmi dell’intelligenza artificiale non puoi discutere. Con un essere umano, sì. Se ti trovi in un caso particolare, ti spieghi e fai valere le tue ragioni. Ma se l’intelligenza artificiale ha già fatto il processo a quelle che ritiene le tue intenzioni, rischi davvero di passare un pessimo quarto d’ora.

GIULIA BURGAZZI

 

You may also like

Comments are closed.