Videosorveglianza, servono nuove regole

0 voti
image_pdfimage_print

Videosorveglianza e intelligenza artificiale, tutti i rischi per la nostra libertà. A 28 anni dall’invenzione della prima webcam siamo arrivati all’era del capitalismo di sorveglianza e lo sviluppo dei sistemi di video analisi dotati di intelligenza artificiale ha cambiato le nostre abitudini e la nostra percezione di sicurezza non proprio a vantaggio della nostra libertà. Servono nuove regole, ma non solo
di Davide Giribaldi

Videosorveglianza, servono nuove regoleVideosorveglianza e intelligenza artificiale, tutti i rischi per la nostra libertà. L’evoluzione delle tecnologie di video-analisi con l’intelligenza artificiale apre nuovi risvolti inquietanti sulla nostra vita privata. Con l’utilizzo di alcune videocamere e software di video analisi a basso costo, è possibile individuare rapidamente comportamenti specifici, intimi o imbarazzanti di ogni istante della nostra giornata.

Siamo di fronte ad un vero e proprio pericolo e secondo un recente rapporto dell’American Civil Liberties Union (ACLU), un’organizzazione non governativa a difesa dei diritti e delle libertà individuali, solo negli Stati Uniti ci sono decine di milioni di telecamere che non si limitano più a registrare le immagini, ma grazie all’intelligenza artificiale stanno imparando ad analizzare i nostri volti, il linguaggio del nostro corpo, gli oggetti e l’ambiente circostante e possono stabilire autonomamente se il nostro atteggiamento sia neutro, minaccioso o potenzialmente offensivo.

AI  e video analytics: i risvolti commerciali e quelli inquietanti

Il rapporto ACLU evidenzia tra le altre cose il fatto che molte aziende offrano servizi di video-analisi che possono avere utilizzi di sicurezza ragionevoli come il rilevamento delle intrusioni in alcune aree specifiche tipo gli edifici o le zone ad accesso limitato, il rilevamento oggetti abbandonati o rimossi (stazioni ferroviarie o antifurto nei negozi), ma possono anche avere utilizzi decisamente repressivi come il rilevamento di direzione, che potrebbe significare il controllo degli assembramenti piuttosto che di categorie specifiche come i lavoratori o gli studenti, il rilevamento dei comportamenti che consentirebbe di osservare e catalogare persone che indugiano o sostano da tempo in una certa area (homeless) o che magari corrono in una direzione per poi fermarsi bruscamente (controllo di potenziali sospetti criminali da parte delle forze di polizia).

Volendo essere un po’ meno orwelliani la video analisi potrebbe essere utile anche a per scopi puramente commerciali, già oggi i sistemi di face detection sono in grado di riconoscere almeno 5 tipi di espressione del nostro volto (felice, triste, preoccupato, adirato e neutro) ma sicuramente non passerà molto tempo dal momento in cui un messaggio pubblicitario sul nostro smartphone ci proporrà l’acquisto di un prodotto semplicemente dicendoci: “Ciao ti ho visto passare ieri pomeriggio davanti al nostro negozio, stavi guardando quel bellissimo paio di scarpe blu, ne abbiamo ancora uno della tua misura, che ne dici di venirle a provare da noi?”.

Attraverso i sistemi di auto-apprendimento è possibile individuare nella folla una mano alzata e stabilire se stia per dare una carezza piuttosto che uno schiaffo e tutti i sistemi di monitoraggio registrano migliaia di informazioni che pur non essendo immediatamente utili possono diventarlo consentendo agli algoritmi di riconoscere ogni specifica situazione. E’ il caso della ricerca di Amir Ziai, senior data scientist presso Netflix, che ha elaborato ed istruito un algoritmo in grado analizzare scene di baci tra persone all’interno di spezzoni di film. Di per se stessa questa ricerca potrebbe avere un uso limitato al video editing, ma riportata su altri sistemi è in grado d’istruire gli algoritmi all’analisi di diverse tipologie di situazioni, come quelle legate al controllo dei comportamenti delle folle in ambienti pubblici.

Non è fantasia né tantomeno una rivisitazione di “1984”, è lo stato dell’arte e che ci piaccia o meno, la video analisi ci pone di fronte al più grande e silenzioso esercito di spie che ci sia mai capitato di vedere, in grado di migliorare le proprie conoscenze semplicemente analizzando i nostri stessi comportamenti in una sorta di spirale perversa.

Per comprendere meglio di cosa parliamo, possiamo tranquillamente affermare che a velocità con la quale l’intelligenza artificiale sta migliorando grazie al machine learning, ci consente di stimare che nel giro di 10-15 anni la maggior parte dei limiti e delle difficoltà attuali saranno completamente superate con un grande impatto sulle nostre attività quotidiane e non è detto che possa essere completamente a nostro vantaggio.

Tutti i rischi che corriamo

Stiamo sicuramente correndo un grosso rischio ed ora più che mai sarebbero necessarie azioni per provare a contenere il pericolo nemmeno troppo nascosto di perdere completamente il controllo della nostra privacy.

La video sorveglianza non si limita più a registrarci ma è in grado di emettere giudizi su di noi in base alla comprensione dell’ambiente che ci circonda e dei nostri atteggiamenti e il risultato sarà un livello di controllo sulle nostre vite impossibile da immaginare soltanto alcuni anni fa. I sistemi possono rilevare non solo quando un veicolo sta percorrendo in senso inverso una strada, ma anche quanti occupanti ci sono a bordo e se il loro comportamento è anomalo rispetto alle circostanze; da diverso tempo negli aeroporti e nelle stazioni sono attivi sistemi di controllo dei bagagli smarriti che sono anche in grado di comprendere se un bagaglio inizialmente incustodito è stato preso da un soggetto diverso; nei negozi senza casse di Amazon il sistema di videosorveglianza è in grado di comprendere se un prodotto prelevato da uno scaffale sia stato o meno rimesso al suo posto.

In linea teorica non esiste nulla che possa sfuggire al controllo e se questo atteggiamento nei paesi democratici viene spacciato per prevenzione del crimine e tutela della sicurezza pubblica, in altri paesi del mondo come la Cina è diventato uno strumento di “educazione civica” e di controllo sociale.

Nuove regole sì, ma da sole non bastano

Comunque la si pensi, è chiaro che la sorveglianza sempre più invasiva cambierà rapidamente il nostro rapporto con la società in un modo difficile da prevedere, per questo è necessario pensare a regole quanto più ampie possibili che aiutino a governare la tecnologia e provino a definire i limiti delle sue ingerenze nella nostra vita privata.

Non sarà semplice perché accanto alle norme è necessaria una nuova coscienza sulle potenzialità e sui pericoli di alcune situazioni in rapido sviluppo, cosi come dovremo elaborare un’etica delle intelligenze artificiali, lo scenario è molto articolato e mentre noi cerchiamo di ragionare su come risolvere alcune questioni, il numero di armi (per il momento senza pallottole) puntate verso di noi sta aumentando in maniera preoccupante perché da un lato prevalgono logiche di business e dall’altro i governi non sono pronti ad affrontare simili sfide.

In conclusione

Oggi, in quella che viene definita l’epoca del capitalismo di sorveglianza, i big di internet stanno estremizzando con ogni metodo l’analisi dei nostri comportamenti semplicemente per individuare gli elementi che consentano di orientare le nostre scelte secondo i loro desideri.

In questa sorta di grande inganno è probabile che arrivi il momento in cui faremo scelte indotte da altri, ma continuando a mantenere la convinzione di averle compiute liberamente. In questo senso l’intelligenza artificiale ha una grande responsabilità.

Il rischio che corriamo è molto alto, anche se ancora non riusciamo a percepirlo: per questo servono regole chiare e “ad ampio spettro” per provare a limitare l’ingerenza di queste tecnologie sulle nostre vite, ma serve anche una maggiore consapevolezza dei pericoli e una serie di paletti a livello etico.  (  https://www.agendadigitale.eu  )

 

   di Davide Giribaldi
    (28/06/2019)

 

 

ViaCialdini è su www.facebook.com/viacialdini e su Twitter: @ViaCialdini