sabato, 18 maggio 2024

Articoli

Anonimizzare audio e video per la security della Smart city

14/03/2024

di Marco Soffientini - Esperto di Privacy e Diritto delle Nuove Tecnologie e docente Ethos Academy

Recentemente il Garante ha sanzionato un Comune per aver avviato alcuni progetti, basati su soluzioni di intelligenza artificiale e  finanziati con fondi europei, senza rispettare alcuni adempimenti in materia di protezione dati. I progetti avevano come obiettivo lo sviluppo di soluzioni tecnologiche volte a migliorare la sicurezza in ambito urbano, secondo il paradigma delle “città intelligenti” (smart cities).

Un progetto prevedeva l’acquisizione di filmati dalle telecamere di videosorveglianza già installate nel territorio comunale per finalità di sicurezza urbana, nonché dell’audio ottenuto da microfoni appositamente collocati sulla pubblica via. Un altro progetto prevedeva invece, oltre all’acquisizione dei filmati di videosorveglianza (senza segnale audio), la raccolta e l’analisi di messaggi e commenti d’odio pubblicati sui social, rilevando eventuali emozioni negative ed elaborando informazioni d’interesse per le Forze dell’ordine, allo scopo di identificare rischi e minacce per la sicurezza dei luoghi di culto.

No base giuridica, no party

Il Garante ha osservato che i progetti erano sprovvisti di idonea base giuridica in quanto l’Ente non annovera la ricerca scientifica tra le proprie finalità istituzionali, e non ha comprovato la sussistenza di alcun quadro giuridico idoneo a giustificare i trattamenti dei dati personali – relativi anche a reati e a categorie particolari – e la conseguente ingerenza nei diritti e nelle libertà fondamentali delle persone. Sotto un profilo tecnico è interessante notare che il Garante ha ritenuto insufficienti le tecniche di anonimizzazione impiegate per ridurre i possibili rischi di reidentificazione per gli interessati. 

Attenti all’anonimizzazione 

In particolare, il Comune aveva precisato come, per identificare con metodi automatici i messaggi di odio online a tema religioso, venissero utilizzati sia set di dati generici, sia dati raccolti appositamente nell’ambito di uno dei due progetti suindicati, tra cui commenti pubblicati su Twitter e YouTube. Tali commenti venivano anonimizzati sostituendo la voce delle persone, e mantenendo quanto più inalterate possibile le caratteristiche del segnale audio, incluso il contenuto semantico del parlato e rimuovendo i nomi degli utenti e sostituendo utenti e url presenti nel testo dei post con USER e URL. Le componenti di analisi per i social media impiegavano modelli di linguaggio basati su Transformer: approcci basati su dizionari e ricerche semantiche per rilevare discorsi di odio, emozioni, localizzazioni geografiche e informazioni errate legate a tematiche religiose nei post dei social media sopra-citati. Per quanto riguarda le immagini, “i dati video venivano  immediatamente anonimizzati effettuando in maniera automatica la sfocatura dei volti e delle targhe dei veicoli, in tal modo rimuovendo gli identificatori personali e garantendo che le persone non potessero essere identificate. In particolare i video grezzi venivano anonimizzati per rimuovere le informazioni e/o caratteristiche personali identificabili, inclusi i volti delle persone e le targhe dei veicoli. 

L’anonimizzazione veniva ottenuta rilevando, innanzitutto, i volti e le targhe su ciascun frame video e applicando, successivamente, una sfocatura gaussiana alle regioni rilevate. 

Sostituire la voce non basta 

Il Garante ha osservato che le tecniche suindicate non possono considerarsi idonee a realizzare un’effettiva anonimizzazione in quanto la sola sostituzione della voce del soggetto parlante non è in alcun modo idonea ad anonimizzare i dati personali correlati a una conversazione, atteso che dal contenuto della stessa è possibile ricavare informazioni relative sia al soggetto parlante sia a terzi e che tali informazioni possono rendere identificabile il parlante, i suoi interlocutori o i soggetti terzi a cui si fa rifermento nel discorso. Oltre a ciò, si deve osservare che, tenuto conto dell’ampia varietà di argomenti che vengono usualmente affrontati nelle conversazioni, non possono essere a priori esclusi trattamenti di dati personali relativi a reati o a categorie particolari o comunque riguardanti soggetti vulnerabili (minori, lavoratori, soggetti fragili, ecc.).

Oscurare i volti non basta

Per quanto attiene ai file video utilizzati, la tecnica dell’offuscamento dei volti non può ritenersi idonea ad assicurare l’effettiva anonimizzazione dei dati, atteso che gli interessati sono comunque potenzialmente identificabili tramite altre caratteristiche fisiche o elementi di contesto (come, ad esempio, corporatura, abbigliamento, posizione nella scena filmata, caratteristiche fisiche particolari, ecc.) o informazioni detenute da terzi (come, ad esempio, notizie di stampa relative a fatti di cronaca, informazioni fornite da persone presenti nella scena filmata, ecc.) o ancora informazioni desumibili, ad esempio, dalla localizzazione della telecamera (aree prospicienti determinati esercizi commerciali, studi medici o scuole) o, infine, informazioni relative al percorso effettuato da una determinata persona individuata nelle immagini video mediante le predette caratteristiche fisiche e gli elementi di contesto, stante la possibilità di seguire i suoi spostamenti fra le diverse telecamere installate. 


maggiori informazioni su:
https://www.humai.it/il-transformer-la-rete-neurale-che-presta-attenzione/



Tutti gli articoli