[e-privacy] Cloud powered facial recognition
Tommaso Gagliardoni
tommaso a gagliardoni.net
Sab 1 Ott 2011 16:18:16 CEST
On 09/30/2011 06:14 PM, A.Cammozzo wrote:
> Vedi il mio commento all'articolo che citi: è una questione culturale.
> Se passa il messaggio che "non possiamo farci nulla", allora non
> possiamo davvero farci più nulla.
E su questo sono d'accordo al 100%, come ho detto mi arrabbio sempre
quando sento la campana del "tanto non possiamo farci nulla".
> Se invece ci rendiamo conto che la privacy è un bene comune, una risorsa
> pubblica che va tutelata e non erosa, possiamo ottenere che le immagini
> raccolte in luoghi pubblici non possano essere usate per il riconoscimento.
Qui invece sono d'accordo con l'affermazione nella premessa, ma non con
la conclusione. Cioe', il principio mi sta bene, ma come si potrebbe
realizzare nella pratica dato che la tecnologia consente di farlo senza
essere beccati?
Ti faccio un esempio: uno potrebbe sviluppare un'applicazione per
smartphone che si colleghi a un hidden service di facial recognition
tramite Tor. Prendendo le dovute cautele diventa estremamente arduo
stabilire che il tizio A ha avuto accesso al servizio illegale B per
avere informazioni sul tizio C, o stabilire chi e come poter perseguire
penalmente per bloccare B. O anche senza andare troppo lontano, basta
mettere B in un paese con una legislazione permissiva dal punto di vista
del data mining. Certo si puo' alzare la "soglia di difficolta'" per
accedere al servizio: si possono oscurare IP, rimuovere l'ipotetica
applicazione dal relativo store, impedire legalmente il proliferare
"fisico" di mezzi pubblicitari che sfruttino questa tecnologia non-etica
(tipo i pannelli pubblicitari di Minority Report), ma il succo e' che ci
saranno sempre scappatoie per trarre piu' o meno profitto da suddetta
tecnologia.
Sono esempi estremi, ma il concetto e' lo stesso che permette a
ThePirateBay e simili di continuare ad operare: la tecnologia per farlo
c'e', e la "legge civile" non puo' farci niente. Se vale per i servizi
p2p deve valere anche per il resto. Poi possiamo discutere sul fatto che
"l'utilita' sociale" di un servizio p2p e quella di una tecnologia
invasiva di facial recognition siano ben diversi, ma il punto e' che la
tecnologia attuale non fa distinzione tra le due cose.
> La policy di default per i luoghi pubblici deve essere opt-out dal
> riconoscimento automatico, come è stato finora.
(intendi opt-in?)
E come principio mi sta benone, ma nella pratica come fai a "forzare"
questo comportamento? Sto seduto al bar, vedo una ragazza carina, tiro
fuori lo smartphone, facendo finta di scrivere un messaggio la inquadro
con la camera, mi collego anonimamente ad un servizio di facial
recognition che fa il matching con informazioni reperibili pubblicamente
(facebook etc) per farmi i cavoli suoi. Chi mi becchera' mai?
(Oh non sto dicendo che lo farei eh :P )
> Inoltre non deve essere consentito di usare repository pubblici di
> immagini con associate informazioni personali per identificare persone
> che passano davanti alle telecamere di sicurezza (o altro).
Forse si puo' fare per enti pubblici, dove il controllo e' maggiore, ma
per i privati? Potrebbero in teoria identificare persone tramite facial
recognition con una probabilita' di essere beccati vicina allo zero...
Insomma, non riesco a vedere un metodo "pratico" per applicare questo
sacrosanto principio. Credo che alla fine il tutto si riduca al solito
dilemma: o "information wants to be free" in tutti i casi,
indipendentemente dalle spiacevoli conseguenze, o si introduce la
censura, e allora si salvi chi puo'.
IMHO le scappatoie sono due: o si passa dalla difesa "passiva" (opt-*
dal tracciamento garantito legalmente) a quella "attiva" (passamontagna
o simili, legalizzazione dei netstrike sui servizi illegali, etc.)
oppure si cambia radicalmente TUTTA la giurisprudenza secondo il
seguente principio generale:
"la pena da scontare per un reato X deve sempre essere pari al 'danno
sociale' causato da X (calcolato su basi empiriche da enti pubblici
specializzati), DIVISO per la probabilita' statistica (su basi storiche)
che si riesca effettivamente a perseguire X".
In questo modo un reato "piccolo" ma praticamente difficilissimo da
perseguire diventa molto "rischioso" in termini di pena. Questo semplice
principio matematico sarebbe molto poco "caritatevole" se vogliamo, ma
"giusto", nel senso che renderebbe sia il crimine, in qualsiasi forma,
che la sua persecuzione, sempre statisticamente non-conveniente.
Just my 2 cents <.<
On 10/01/2011 01:40 PM, Tramaci SRD wrote:
> * Un elemento storico che insegna a non divulgare tali tecnologie
Epto, a me certo non entusiasma la tecnologia di facial recognition, ma
ti rendi conto che "insegnare a non divulgare queste tecnologie" non
puo' essere la soluzione? La contro-schedatura invece puo' avere un
senso, anche se presumo che la legge che verrebbe fuori sarebbe qualcosa
del tipo "e' vietato per tutti usare le tecnologie di facial recognition
attingendo a database pubblici, TRANNE ai nostri amici"...
--
Tommaso Gagliardoni
GnuPG Key ID: 51D8DEB8
Fingerprint: DC10 0D2F 8F07 238D C5DB 63B8 0AEF 48C5 51D8 DEB8
More information about the e-privacy
mailing list