FaceApp e app a riconoscimento facciale: sai quanto è a rischio la privacy?

In evidenza

Redazione i404
i404 racconta com'è cambiato il mondo e dove sta andando. Quello che raccontiamo è un’opportunità.

Tempo di lettura stimato: 2 minutiQuali sono i problemi di privacy legati alle app a riconoscimento facciale? Te lo sei mai chiesto?
Molti italiani si sono posti il problema per l’app Immuni.
Gli stessi che magari in questi giorni giocano a invecchiarsi o cambiare genere con FaceApp.
Già in passato le associazioni di consumatori avevano puntato il dito verso queste applicazioni. Oggi due colossi come IBM e Amazon fanno marcia indietro.
Pochi i benefici rispetto ai rischi che sono troppi. E ancora non tutti esplorati.

riconoscimento facciale
Foto di Gerd Altmann da Pixabay

Come funziona il riconoscimento facciale.

Il riconoscimento facciale è una tecnologia di intelligenza artificiale che si usa in biometria per poter verificare o identificare l’identità di un soggetto.
Come le impronte digitali, il riconoscimento facciale viene usato per identificare elettronicamente le persone, anche a distanza.

Con il riconoscimento facciale, tramite elaborazione digitale delle immagini, viene generato un faceprint, un codice univoco associato a ogni individuo tramite numerosi punti nodali che riconoscono le diverse parti del viso.
I colossi della tecnologia hanno sviluppato software e algoritmi per l’utilizzo di questa tecnologia spesso associata a sistemi di sicurezza. Una tecnica non priva di possibilità di errori. E di dubbi legati al diritto alla privacy e alla sicurezza dei dispositivi.

Il riconoscimento facciale è utilizzato da smartphone (ad esempio per sbloccarlo o per pagare tramite telefono), computer (per non dover inserire i dati di accesso ogni volta), app (per modificare foto e immagini), ma anche nell’ambito di progetti di videosorveglianza, nell’ambito della sicurezza e per raccogliere dati di clienti e consumatori.

faceapp
Photo by Glen Carrie on Unsplash

FaceApp è sicura?

FaceApp è un’app scaricabile sul telefonino per modificare le proprie immagini. Per invecchiarsi o cambiare genere.
Lanciata diversi anni fa, è tornata di moda in questi giorni, in cui si parla tanto della difesa della privacy con un’app come Immuni, che serve per il contact tracing ai tempi del Coronavirus.
Già l’anno scorso il Codacons avvertiva dei potenziali pericoli di FaceApp e di altre app a riconoscimento facciale. Soprattutto per quello che riguarda la gestione dei dati personali e delle immagini. Che fine fanno dati e foto?
L’azienda che gestisce il tutto ha sede a San Pietroburgo, ma la sede legale è in California. Per l’archiviazione dei dati, invece, si sfruttano Amazon Web Service e il cloud di Google. Quindi sono già diversi i protagonisti della condivisione dei dati.

Le foto dovrebbero essere cancellate entro 48 ore. Ma la policy parla di accettazione dell’archiviazione delle foto. E per quello che riguarda la vendita di informazioni a terze parti, si dice che questo non avverrà, ma i termini e le condizioni dicono altro. Il rischio è la creazione della più grande banca dati mondiale per sviluppare ancora meglio l’uso dell’intelligenza artificiale legata al riconoscimento facciale. E gestire i nostri dati.

app privacy
Photo by Antoine Beauvillain on Unsplash

IBM e Amazon abbandonano il riconoscimento facciale.

Due colossi come IBM e Amazon hanno già annunciato di voler far marcia indietro su alcune applicazioni della tecnologia del riconoscimento facciale.
Arvind Krishna, CEO di IBM, in una lettera al congresso americano annuncia la volontà di rinunciare a lavorare sul riconoscimento facciale legato a operazioni di polizia, dicendosi contrario all’uso di una tecnologia di “sorveglianza di massa, profilazione razziale, violazione delle libertà e dei diritti umani”. E chiede che venga aperto un dibattito su come la polizia dovrebbe usare questa tecnologia.

Amazon, invece, per un anno ha deciso di non usare questa tecnologia, che era installata in Rekognition, un software creato dall’e-commerce. I pro sono pochi e i contro sono tanti. Anche nelle modalità in cui queste tecnologie vengono usate, soprattutto dalle forze dell’ordine. Spesso oggetto di pregiudizi che coinvolgono etnie e minoranze.
Stessa decisione per Microsoft, che non venderà il software sviluppato dall’azienda alla polizia.

Tanti i rischi legati alla privacy, alla sicurezza e anche a possibili abusi della tecnologia.
Passi indietro che ci spingono a rivedere le modalità di approccio con tecnologie che da un lato potrebbero migliorare la qualità della vita, mentre dall’alto lato pongono dubbi etici da non sottovalutare. La sicurezza delle persone viene prima di tutto. La tecnologia senza etica e responsabilità non può esistere.

- Pubblicità -spot_imgspot_img

Commenta

Perfavore inserisci un commento!
Nome