Dispensa Tecnologie del dominio e Autodifesa Digitale

Lo scorso  novembre abbiamo parlato di Tecnologie del Dominio con il collettivo Ippolita, mettiamo in condivisione una mini dispensa sulla discussione affrontata nel corso della serata


TECNOLOGIE DEL DOMINIO E AUTODIFESA DIGITALE
a cura del collettivo IPPOLITA

26/11 DISPENSA BASE

Guida all’autodifesa digitale
https://numerique.noblogs.org/

Su privacy (hacklab unit di milano)
https://cloud.unit.macaomilano.org/f/11f14729b3cd4d97a5f3/

un percorso progressivo per liberarsi di android (hacklab unit di milano)
https://wiki.unit.abbiamoundominio.org/PrivacyMattersOnMyPhone

Big data e scienza
http://www.meltemieditore.it/catalogo/la-ricerca-scientifica-nellera-dei-big-data/

Su Foxconn
https://www.hoepli.it/libro/il-sogno-perduto-apple-foxconn-e-la-nuova-schiavitucinese/9788816412460.html

Su tecnocrazia di Ippolita
http://www.arivista.org/index.php?nr=417&pag=108.htm&key=tecnocrazia
su anarco-capitalismo

http://www.arivista.org/index.php?nr=423&pag=85.htm&key=anarco-capitalismo

su big-data
# Big Data
*Insieme di dati in grande quantità, varietà e rapidità di evoluzione.*
## Enormi, Rapidi, Differenziati
La nozione di *big data* nasce all’inizio del XXI secolo: l’aumento esponenziale delle
capacità di trattamento e salvataggio di dati rende disponibili grandi quantità di
informazioni sotto forma digitale. La sigla VVV (coniata nel 2001 da una
multinazionale di consulenze informatiche, il gruppo META) viene spesso usata per
indicare le tre caratteristiche fondamentali che distinguono i *big data*:

– *Volume*, la quantità di informazioni;
– *Velocity*, la velocità di acquisizione, rinnovamento e trattamento dei dati;
– *Variety*, la differenziazione qualitativa.

Un insieme di dati dovrebbe essere classificato come *big data* quando queste tre V
sono «smisurate». L’unità di misura di volume dei *big data* è il petabyte cioè un
milione di gigabyte. Un film masterizzato in qualità dvd occupa circa 4 gigabyte, una
foto in alta risoluzione circa 5 millesimi di gigabyte. Un petabyte può quindi contenere
circa 250mila film o 200 milioni di fotografie.

Esempi di *big data* sono le informazioni collezionate in tempo reale dai social
network o dai grandi negozi online, dai *bot* pubblicitari nelle pagine che visitiamo o
mediante le applicazioni che usiamo sui nostri telefoni. Una massa enorme di dati
acquisita in maniera rapida, e di varie tipologie, tra cui: localizzazione, sistema
operativo, plugin e preferenze del nostro navigatore, pagine visitate, tempo passato
su ogni singola pagina, foto e video visionati, contatti email a cui abbiamo scritto più
spesso, ricerche. Nonché, ovviamente, tutto il contenuto testuale, audio, video e
fotografico postato o condiviso sulla nostra bacheca. Questa massa enorme di dati
relativa a svariati aspetti di miliardi di profili viene continuamente aggiornata.

Esempi meno noti sono le grandi quantità di dati raccolti dai satelliti o da telescopi di
grande precisione, o da altri strumenti di misura di quantità fisiche a scopi scientifici,
per esempio dati meteorologici molto precisi. Non mancano ovviamente esempi nel
campo della sicurezza, o meglio del controllo sociale. Gli algoritmi di riconoscimento
facciale si basano, per esempio, sulla capacità di poter stoccare e analizzare in tempi
brevi flussi di dati provenienti da telecamere, foto postate su un qualsiasi social
network o sito web.

Un algoritmo predittivo è un **algoritmo** che permette di stimare la probabilità di
realizzazione per un determinato evento a partire dalle condizioni misurate in un
preciso istante. Per esempio, nella prevenzione del cancro, poter valutare, a partire da
dati clinici, la probabilità che un certo tipo di cellule tumorali sia già attivo oppure in
procinto di attivarsi. Il *deep learning* è alla base degli algoritmi predittivi più
performanti.

## La morte della teoria: i *big data* come *strumenti del dominio*

L’analisi e lo sfruttamento dei *big data* è in mano a poche strutture di potere,
ovvero grandi gruppi industriali e militari. Si pone quindi il problema del controllo e
della verifica delle inferenze compiute, di fatto sottratte al metodo scientifico.

Ma anche se fosse possibile, come alcuni ricercatori auspicano, un accesso più ampio
a queste risorse, si porrebbe in ogni caso la questione della mancanza di trasparenza
dei processi, dell’obiettivo delle ricerche stesse e infine, ancora più grave, della
mancanza di teorie esplicite. Al momento i *big data* assomigliano più a un oracolo
pseudo-scientifico a cui affidarsi per evitare di formulare una teoria, per sottrarsi alla
presa di posizione. Invece di formulare ipotesi e cercare di verificarle in maniera
empirica, gli apprendisti stregoni dei *big data* commerciali suggeriscono ai decisori
politici, militari e ai comuni cittadini che non c’è bisogno di alcuna riflessione, non è il
caso di preoccuparsi del quadro generale, non è necessaria alcuna dialettica
democratica, perché i dati parlano da sé, basta saperli interrogare e ascoltare.

Una pericolosa deriva, una delega del tutto fideistica in linea con i principi della
**tecnocrazia**.

Questa voce è stata pubblicata in Anarchia, Autogestione, Dal territorio, DIY, Iniziative, Net-Attivismo, pubblicazioni, Volantini e contrassegnata con , , , , , , , , , , . Contrassegna il permalink.