Support
Il riconoscimento facciale o face detection

Il riconoscimento facciale o face detection

04 Marzo 2021 Scritto da Sicurezza 140
Vota questo articolo
(4 Voti)

Il riconoscimento facciale o face detection.


La prima volta che abbiamo utilizzato il riconoscimento facciale è stato forse pensando di proteggere la privacy del nostro telefono cellulare dagli sguardi indiscreti di familiari e vicini, neppure troppo consapevoli dei rischi più grandi cui saremmo potuti andare incontro. Oppure, abbiamo sentito parlare di face detection quando ci siamo trovati taggati in una foto di Facebook, che ha riconosciuto il nostro volto nella foto postata da un amico. Magari durante il lockdown ci sarà capitato di dover sostenere un esame o un test su qualche piattaforma online, che ci ha identificati attraverso lo scatto di una foto del nostro volto.

L’intelligenza artificiale consente di riconoscere la nostra identità, partendo da una nostra immagine e lo fa sulla base di un algoritmo creato dall’uomo. Può essere acquisito tramite questo sistema un “dato biometrico” altamente sensibile, che potrebbe essere utilizzato per le finalità più disparate, dalla valutazione per l’assunzione di personale in un’azienda, fino ai sistemi di sorveglianza della polizia, con enormi potenzialità lesive dei diritti umani in ordinamenti privi di regolamentazione.

 I pericoli per la privacy e per i diritti umani
Il 28 febbraio 2021 il Consiglio d’Europa, ha elaborato una serie di linee guida vincolanti per chiedere ai 47 stati firmatari della Convenzione Europea dei diritti dell’Uomo (fra cui l’UE e l’Italia), di regolamentare l’utilizzo del riconoscimento facciale e l’acquisizione dei dati biometrici, vietando alcuni usi lesivi dei diritti umani e ponendo particolari cautele per i casi di stretta necessità.

I pericoli messi in luce dal Comitato Consultivo della Convenzione 108 del Consiglio (la Convenzione 108 è stata firmata a Strasburgo nel 1981 a protezione delle persone rispetto al trattamento automatizzato dei dati personali), sono molteplici e riguardano tanto i comportamenti di imprese private, sviluppatori dei software di “face detection” o detentori dei server che conservano i dati,  tanto quelli di Governi, e pubbliche amministrazioni. In alcuni Paesi (è noto il caso della Cina), i sistemi di riconoscimento facciale sono stati integrati con sistemi di videosorveglianza della popolazione, al fine di prevenire reati e controllarne i comportamenti; ma i dati biometrici ricavati dall’uso delle telecamere  non sempre vengono raccolti con il consenso degli interessati. E’ possibile ricavare i dati biometrici di una persona a sua insaputa estrapolando da internet una sua foto. In alcuni casi gli algoritmi si sono rivelati non perfetti inducendo in errore gli strumenti di videosorveglianza, e portando ad identificare come autore di un reato la persona sbagliata.

Le preoccupazioni del Consiglio d’Europa travalicano il solo problema della violazione della privacy dell’individuo, che pure è fortemente a rischio. Ulteriori problemi nascono anche  per la possibilità che i sistemi di “face detection” vengano utilizzati per determinare il colore della pelle, il credo religioso, il sesso, la razza, l’età o la condizione di salute di una persona, al fine di discriminarla.

Oppure ancora, il riconoscimento facciale può arrivare a far conoscere i tratti della personalità di un individuo, rivelandone i sentimenti, lo stato di salute mentale, la predisposizione lavorativa. Si tratta delle c.d. tecnologie di “riconoscimento dell’affetto”, che potrebbero essere ingiustamente utilizzate nelle procedure di assunzione del personale, nell’accesso ai servizi di assicurazione o come criteri selettivi nei percorsi di istruzione.

 Le indicazioni del Consiglio d’Europa agli Stati
A fronte di così tanti pericoli, il Consiglio d’Europa ha invitato tutti gli Stati membri della CEDU ad adottare stringenti normative che regolino il fenomeno del riconoscimento facciale. Alcuni Stati per la verità sono già dotati di norme in merito, come ad esempio è stata ritenuta valida la  protezione  contenuta nel GDPR dell’Unione Europea. L’art. 9 del GDPR  pone un divieto assoluto di utilizzo dei dati biometrici salvo alcune specifiche eccezioni contemplate dal regolamento, e relative ai casi consentiti  dallo stesso titolare del dato sensibile, o in cui i suoi dati siano stati resi da lui stesso manifestamente pubblici o a ragioni di carattere pubblico di particolare rilevanza (medicina preventiva e del lavoro, giustizia, sanità pubblica, ricerca) purché siano rispettati i diritti fondamentali. Secondo il GDPR inoltre sono considerati dati biometrici non tutti quelli che si possono estrapolare da una fotografia, ma solo quelli ricavati attraverso dispositivi tecnici in grado di consentire l'identificazione univoca o l'autenticazione di una persona fisica.

Le linee guida del Consiglio d’Europa chiedono che le legislazioni degli Stati vietino di ricavare dati biometrici dalle fotografie trovate su internet, inserite per i più vari scopi ( ad esempio social network). Le immagini che rilasciamo su internet, sui social, o quelle estrapolate dalle telecamere per la strada, non devono poter essere utilizzate ad altri scopi ,per il solo fatto che sono state acquisite con il nostro consenso.

Le normative dovranno altresì impedire l’utilizzo del “riconoscimento dell’affetto” e comunque proibirne l’impiego nelle procedure selettive di assunzione, nell’accesso ai servizi di istruzione e ai servizi assicurativi.

Le forze dell’ordine non dovrebbero poter utilizzare i sistemi di riconoscimento facciale se non in quei casi in cui sia strettamente necessario al fine di prevenire un danno grave ed imminente alla sicurezza pubblica.

Devi effettuare il login per inviare commenti