[e-privacy] Cloud powered facial recognition

Alberto Cammozzo a.cammozzo a gmail.com
Lun 3 Ott 2011 11:55:14 CEST


On 10/01/2011 04:18 PM, Tommaso Gagliardoni wrote:
> On 09/30/2011 06:14 PM, A.Cammozzo wrote:
>> Vedi il mio commento all'articolo che citi: è una questione culturale.
>> Se passa il messaggio che "non possiamo farci nulla", allora non
>> possiamo davvero farci più nulla.
> 
> E su questo sono d'accordo al 100%, come ho detto mi arrabbio sempre
> quando sento la campana del "tanto non possiamo farci nulla".

Benissimo.

>> Se invece ci rendiamo conto che la privacy è un bene comune, una risorsa
>> pubblica che va tutelata e non erosa, possiamo ottenere che le immagini
>> raccolte in luoghi pubblici non possano essere usate per il riconoscimento.
> 
> Qui invece sono d'accordo con l'affermazione nella premessa, ma non con
> la conclusione. Cioe', il principio mi sta bene, ma come si potrebbe
> realizzare nella pratica dato che la tecnologia consente di farlo senza
> essere beccati?
> 
> Ti faccio un esempio: uno potrebbe sviluppare un'applicazione per
> smartphone che si colleghi a un hidden service di facial recognition
> tramite Tor. Prendendo le dovute cautele diventa estremamente arduo
> stabilire che il tizio A ha avuto accesso al servizio illegale B per
> avere informazioni sul tizio C, o stabilire chi e come poter perseguire
> penalmente per bloccare B. O anche senza andare troppo lontano, basta
> mettere B in un paese con una legislazione permissiva dal punto di vista
> del data mining. Certo si puo' alzare la "soglia di difficolta'" per
> accedere al servizio: si possono oscurare IP, rimuovere l'ipotetica
> applicazione dal relativo store, impedire legalmente il proliferare
> "fisico" di mezzi pubblicitari che sfruttino questa tecnologia non-etica
> (tipo i pannelli pubblicitari di Minority Report), ma il succo e' che ci
> saranno sempre scappatoie per trarre piu' o meno profitto da suddetta
> tecnologia.
> 
> Sono esempi estremi, ma il concetto e' lo stesso che permette a
> ThePirateBay e simili di continuare ad operare: la tecnologia per farlo
> c'e', e la "legge civile" non puo' farci niente. Se vale per i servizi
> p2p deve valere anche per il resto. Poi possiamo discutere sul fatto che
> "l'utilita' sociale" di un servizio p2p e quella di una tecnologia
> invasiva di facial recognition siano ben diversi, ma il punto e' che la
> tecnologia attuale non fa distinzione tra le due cose.


Chiunque compre un binocolo ha la possibilità tecnica di spiare nelle
case altrui, ma farlo è socialmente riprovevole.
Chiunque con una macchina fotografica può fotografare sotto le gonne, ma
se viene beccato non la passa facilmente liscia.
Eccetera.

C'è una cosa più forte della legge e perfino dei vincoli tecnici, e sono
le norme sociali.
La legge emerge ove queste falliscono o sono difficilmente applicabili.
Se fosse socialmente censurato il fatto fotografare la gente e
identificarla con i servizi online, sarebbero in pochi (devianti) a
farlo. Sarebbero costretti ad agire di nascosto e la legge li punirebbe
se fossero beccati. Chiunque li denuncerebbe essendo convinto che questo
comportamento mette in pericolo un bene della collettività.
Il fatto che le tecnologie sono nuove e si diffondono velocemente non
permette alle norme di starci dietro, ma questo non significa che
dobbiamo rinunciare a farle emergere.
Proprio per questo motivo è cruciale non confondere, nella locuzione
"poter fare" la *possibilità tecnica* con *ciò che è legittimo* e
arrendersi con il "non possiamo farci nulla" appena qualcosa diventa
tecnicamente fattibile.

[L'italiano non distingue due significati del termine "potere" presenti
in altre lingue: "potere" fare qualcosa significa da una parte averne
l'abilità, la possibilità tecnica (in latino "posse", in tedesco
"koennen"); dall'altra averne la facoltà legittima (latino "licere",
tedesco "duerfen").]

"Poter" identificare qualcuno non significa che ciò sia legittimo.

Ammesso (e non concesso) che non possiamo tecnicamente impedire la
re-identificazione, dobbiamo attivarci perchè ciò sia considerato
socialmente riprovevole e, nel caso le norme sociali falliscano, siano
le leggi a tutelare la privacy.

Se ci pensi, il tentativo di censurare un comportamento è precisamente
quanto sta facendo l'industria dei media con la pubblicità "non
ruberesti mai un film". Per ora con scarsi risultati, ma siamo solo
all'inizio (si sono presi tardi), e soprattutto l'industria dei media
parte da una posizione morale molto dubbia che rende il messaggio poco
credibile.
Ma la strada è proprio quella: "se non metteresti mai una microspia in
casa del tuo vicino, perché consideri corretto identificare le ragazze
al bar?".

>> La policy di default per i luoghi pubblici deve essere opt-out dal
>> riconoscimento automatico, come è stato finora.
> 
> (intendi opt-in?)

Si, scusa, certo!


> E come principio mi sta benone, ma nella pratica come fai a "forzare"
> questo comportamento? Sto seduto al bar, vedo una ragazza carina, tiro
> fuori lo smartphone, facendo finta di scrivere un messaggio la inquadro
> con la camera, mi collego anonimamente ad un servizio di facial
> recognition che fa il matching con informazioni reperibili pubblicamente
> (facebook etc) per farmi i cavoli suoi. Chi mi becchera' mai?
> 
> (Oh non sto dicendo che lo farei eh :P )

Proprio questo è il punto. Il fatto che nessuno, come te, lo farebbe,
pur "potendo" tecnicamente farlo. O di nascosto, con timore di essere
beccato, vergognandosi un po'. Una bella differenza rispetto a farlo
senza nessun pudore.
Ci dimentichiamo spesso che la regolazione sociale è uno strumento
potentissimo, e non c'è solo quella economica, giuridica o tecnica (cfr
L.Lessig).
I tecnologi spesso dimenticano che ogni sistema tecnologico è in realtà
un sistema sociotecnico.

>> Inoltre non deve essere consentito di usare repository pubblici di
>> immagini con associate informazioni personali per identificare persone
>> che passano davanti alle telecamere di sicurezza (o altro).
> 
> Forse si puo' fare per enti pubblici, dove il controllo e' maggiore, ma
> per i privati? Potrebbero in teoria identificare persone tramite facial
> recognition con una probabilita' di essere beccati vicina allo zero...
> 
> Insomma, non riesco a vedere un metodo "pratico" per applicare questo
> sacrosanto principio. Credo che alla fine il tutto si riduca al solito
> dilemma: o "information wants to be free" in tutti i casi,
> indipendentemente dalle spiacevoli conseguenze, o si introduce la
> censura, e allora si salvi chi puo'.
> 
> IMHO le scappatoie sono due: o si passa dalla difesa "passiva" (opt-*
> dal tracciamento garantito legalmente) a quella "attiva" (passamontagna
> o simili, legalizzazione dei netstrike sui servizi illegali, etc.)
> oppure si cambia radicalmente TUTTA la giurisprudenza secondo il
> seguente principio generale:
> 
> "la pena da scontare per un reato X deve sempre essere pari al 'danno
> sociale' causato da X (calcolato su basi empiriche da enti pubblici
> specializzati), DIVISO per la probabilita' statistica (su basi storiche)
> che si riesca effettivamente a perseguire X".
> 
> In questo modo un reato "piccolo" ma praticamente difficilissimo da
> perseguire diventa molto "rischioso" in termini di pena. Questo semplice
> principio matematico sarebbe molto poco "caritatevole" se vogliamo, ma
> "giusto", nel senso che renderebbe sia il crimine, in qualsiasi forma,
> che la sua persecuzione, sempre statisticamente non-conveniente.

Proposta interessante, che però lascerei commentare ai giuristi...


> 
> Just my 2 cents <.<
> 
> 
> On 10/01/2011 01:40 PM, Tramaci SRD wrote:
>> * Un elemento storico che insegna a non divulgare tali tecnologie
> 
> Epto, a me certo non entusiasma la tecnologia di facial recognition, ma
> ti rendi conto che "insegnare a non divulgare queste tecnologie" non
> puo' essere la soluzione? La contro-schedatura invece puo' avere un
> senso, anche se presumo che la legge che verrebbe fuori sarebbe qualcosa
> del tipo "e' vietato per tutti usare le tecnologie di facial recognition
> attingendo a database pubblici, TRANNE ai nostri amici"...

Non divulgare è quanto ha fatto Google, che non ha reso disponibile un
"search engine facciale" già sviluppato, perchè lo considera "creepy".
E secondo me lo ha fatto, come dice Epto, proprio perchè potenzialmnte
controproducente: Google teme un "privacy panic" che faccia cancellare
le foto dai repository pubblici come Picasa.

Ma possiamo stare certi che esistono già dei servizi di search engine
facciale non pubblici che usano *anche* immagini pubblicamente
disponibili nei repository e nei social networks, oltre a quelle
private. Il recente esperimento di Acquisti della CMU mostra la strada...
Il vero salto di scala si avrà quando la face recognition sarà
interoperabile e non servirà più l'enrolment di una faccia per fare face
matching, ma basterà scambiare i database dei template (la "firma" della
faccia). Questo è quanto sta già succedendo in parte per il "border
processing" alle frontiere e nei casinò per identificare i "problem
gamblers". Anche alcune catene di alberghi lo fanno; la tua faccia è
riconosciuta worldwide in tutti gli alberghi della catena.

I lettori di questa lista hanno abbastanza fantasia ed esperienza per
immaginare alcune delle conseguenze della diffusione di sistemi di face
recognition globalmente interoperabili....

ciao
Alberto

--
http://cammozzo.com
http://tagmenot.info


More information about the e-privacy mailing list