X
<
>

L’albero della conoscenza del bene e del male

Condividi:
6 minuti per la lettura

Siamo sempre più inclini a farci indirizzare dagli algoritmi, nelle scelte che riguardano gli aspetti importanti (e anche quelli meno appariscenti) della nostra vita. Anche per questo le nostre capacità di scelta e ragionamento vanno via via assottigliandosi.

Il primo ad aver intravisto questa possibilità era stato Theodor Adorno che, nel suo saggio La crisi dell’individuo a metà del secolo scorso aveva scritto: “Si ha la netta sensazione che per la stragrande maggioranza gli uomini siano stati derubricati da tempo a mere funzioni all’interno del mostruoso macchinario sociale di cui tutti siamo prigionieri. … un sistema di amministrazione, un certo tipo di gestione dall’alto”. Quello indicato con grande anticipo dai filosofi e sociologi della Scuola di Francoforte è probabilmente il primo accenno alla trasformazione che, qualche decennio più tardi, avrebbe investito il nostro modo di vivere, lavorare, acquistare e perfino pensare.

Si trattava dell’anticipazione di ciò che sarebbe poi diventato “L’uomo a una dimensione” nella magistrale intuizione di Herbert Marcuse a metà degli anni ’60. Una realtà per l’umanità intesa come incessantemente spinta in quella strettissima dimensione identificata dal filosofo e sociologo di origine tedesca e naturalizzato statunitense, che si è consolidata negli anni e oggi è assimilabile a una delega sempre più ampia alla tecnologia e all’informatica, con una conseguente sottrazione di autonomia alle persone, che il digitale lo consumano ma di fatto non lo governano più

Marcuse lo aveva inteso talmente bene, quell’avanzare che avrebbe segnato cosi tanto le quotidianità delle persone, che aveva cominciato il suo libro forse più famoso con un incipit inequivocabile: “Una confortevole, levigata, ragionevole, democratica non-libertà prevale nella civiltà industriale avanzata, segno del progresso tecnico”. Sta proprio qui la concezione centrale dell’unidimensionalità umana: l’uomo a una dimensione nell’interpretazione marcusiana è una persona il cui pensiero è sistematicamente reso meno profondo, nei fatti in difficoltà nel dover seriamente concepire un’alternativa all’ordine costituito.

La ragione principale, nella sua argomentazione, sta nel fatto che nel linguaggio prevalgono aspetti formali che hanno una natura distinta dall’essenza del pensiero. Gli aspetti formali vengono peraltro rinforzati dall’interazione con gli oggetti materiali, rendendo l’uomo a una dimensione il risultato dell’avanzata di strutture formali che si realizzano nel sistema tecnologico e scientifico e sono usate dal potere come strumento di dominio.

Nei fatti, oggi tutto è governato da quello che informalmente definiamo Intelligenza Artificiale e che gli informatici chiamano invece – in modo più appropriato – Machine Learning: un sistema di algoritmi oramai divenuti imprescindibili in molti aspetti della vita pubblica, dalla sanità alla politica, dalla giustizia all’istruzione.

Ma non si tratta solo della vita pubblica: non possiamo più fare a meno di algoritmi neanche nella vita privata. Li usiamo per esempio quando interagiamo con gli assistenti vocali sui nostri smartphone o scegliamo il riconoscimento facciale al posto di digitare un codice di accesso. Sono invisibili ma ci accompagnano quotidianamente quando cerchiamo un percorso in auto tramite la geo-localizzazione, paghiamo una bolletta tramite app della nostra banca di fiducia, prenotiamo un posto in treno o semplicemente cerchiamo su un motore di ricerca il sito migliore per prenotare una vacanza esotica; o quando esibiamo il Green-Pass sul nostro telefono per entrare a cena in un ristorante.

Aveva avuto certamente una buona intuizione A. Aneesh, sociologo americano dell’Università di Milwaukee-Wisconsin, che nel 2006, nel volume Virtual Migration, aveva per la prima volta utilizzato il termine algocracy, che poi in italiano è diventato algocrazia.

In realtà Anesh rivendica l’uso di questo concetto già nel 1997, nella sua tesi di laurea presentata poi in un abstract all’American Sociological Association nel 1999. Il termine Algocrazia, invece, è oramai accettato anche nella nostra lingua, e ha cominciato a fare capolino attorno al 2013, riferito a un ambiente digitale di rete in cui il potere viene esercitato in modo sempre più profondo dagli algoritmi, alla base delle piattaforme mediatiche, che rendono possibili solo alcune forme di interazione e di organizzazione a scapito di altre.

Nei suoi scritti Aneesh usa i termini algocracy e algocratic facendo riferimento prevalentemente al mondo del lavoro per identificare un nuovo sistema di governance basato appunto sugli algoritmi a differenza dei sistemi organizzativi più noti, la burocrazia e il mercato.

Per far comprendere meglio il suo ragionamento, Aneesh utilizza un esempio che riguarda il controllo del traffico e delle violazioni automobilistiche. L’uso dei semafori implica per gli automobilisti il rispetto di alcune regole – fermarsi quando è rosso, per esempio – le cui violazioni possono essere rilevate da chi è preposto ai controlli. Perché questo modello organizzativo funziona? Perché c’è una sorta di interiorizzazione delle regole da parte degli automobilisti, ma anche perché esiste la minaccia della pena per il mancato rispetto delle regole.

Questo è insomma il modello che rappresenta l’organizzazione burocratica, al quale Aneesh contrappone appunto l’idea di quello algocratico: un sistema di autocontrollo del traffico che non si basa su regole ma su come sono costruite le strade. E quindi, per intenderci, una strada che impedisce letteralmente ai guidatori di svoltare a sinistra o a destra o di sostare in un punto preciso a meno che non sia previsto da chi ha progettato la strada. Una vera rivoluzione, insomma. Tanto la forma inglese che la sua traduzione italiana, in origine, facevano riferimento all’effetto che le tecnologie informatiche hanno sull’evoluzione del lavoro; il termine è stato poi esteso, nel suo uso corrente, anche alla fattispecie relativa ad indicare, più genericamente, l’importanza degli algoritmi nella società, talmente in crescita da suscitare motivate preoccupazioni.

Perché in fondo l’algocrazia ha a che fare con una concezione particolare del potere: a differenza della burocrazia infatti, che sfrutta il modello di ‘orientamento all’azione’ (orienta cioè le nostre personalità verso determinate norme), le algocrazie predeterminano l’azione verso risultati prefissati: qualcosa che ha a che fare con quanto sosteneva Shoshana Zuboff, autrice del libro ‘In the Age of the Smart Machine: The Future of Work and Power’, che nel 1988 aveva introdotto il concetto di ‘Informating’, ossia il processo di digitalizzazione che traduce attività, eventi, cambiamenti e obiettivi sociali in informazioni. Nei suoi ultimi lavori la ricercatrice americana ha concentrato i suoi studi sul nuovo modello di ‘capitalismo della sorveglianza’, in mano oggi alle multinazionali informatiche più importanti del pianeta.

Si tratta di un tema oggi al centro del dibattito perché tocca da vicino gran parte dell’umanità (perlomeno tutta quella che utilizza connessioni di rete quotidianamente): perché la continua e ciclopica cessione di dati che facciamo tutte le volte che ci connettiamo alla rete fa parte di un quadro generale che pare avere un destino segnato inequivocabilmente. Quello di essere regolato da una serie di macchine onniscienti, alimentate proprio da quella quantità sempre maggiore di dati. La democrazia, la partecipazione, la reciprocità informativa e la trasparenza non fanno parte dell’algoritmo perché, banalmente, fanno diminuire i guadagni e vanno controcorrente rispetto alla ferma ideologia del superamento della deliberazione umana, certamente di quella che fa più resistenza al ricercato quadro di standardizzazione delle scelte e dei comportamenti. E torniamo al punto di partenza.

Come aveva già intuito Marcuse negli anni ’60, proseguendo sul filone di analisi della Scuola di Francoforte, la democrazia permeata di tecnologia digitale tende ad assumere una natura totalitaria che assorbe e integra ogni cosa. Tutto sta dentro un dispositivo informatico, e per la gran parte di noi vale la regola della “black box”, cioè di una scatola nera all’interno della quale ci sono cose che non conosciamo (e quindi non governiamo). Tutto e tutti siamo avvolti in una razionalità automatica che aiuta, semplifica ma soprattutto indirizza (e genera dipendenza). La tecnica spinge in questo modo l’essere umano a una vita semplificata, a una dimensione sempre più ristretta. Una dimensione che fa il paio con la velocità, il consumismo e l’iperattività e che garantisce, in definitiva, comportamenti standardizzati certamente più semplici da governare.


La qualità dell'informazione è un bene assoluto, che richiede impegno, dedizione, sacrificio. Il Quotidiano del Sud è il prodotto di questo tipo di lavoro corale che ci assorbe ogni giorno con il massimo di passione e di competenza possibili.
Abbiamo un bene prezioso che difendiamo ogni giorno e che ogni giorno voi potete verificare. Questo bene prezioso si chiama libertà. Abbiamo una bandiera che non intendiamo ammainare. Questa bandiera è quella di un Mezzogiorno mai supino che reclama i diritti calpestati ma conosce e adempie ai suoi doveri.  
Contiamo su di voi per preservare questa voce libera che vuole essere la bandiera del Mezzogiorno. Che è la bandiera dell’Italia riunita.
ABBONATI AL QUOTIDIANO DEL SUD CLICCANDO QUI.

Condividi:

COPYRIGHT
Il Quotidiano del Sud © - RIPRODUZIONE RISERVATA

EDICOLA DIGITALE