La falsa autosufficienza del digitale
Con la sua apertura al digitale la nostra vita e quella invisibile e misteriosa degli algoritmi e dei software si sono indissolubilmente intrecciati.
Ogni giorno interagiamo con applicazioni, piattaforme e servizi online senza porci troppe domande sulla loro origine o sul modo in cui esse funzionano. I risultati ci appaiono quasi “magici”, come parte naturale del nostro ambiente: questa superficialità nella lettura della realtà potrebbe essere ricondotta all’illusorio e generale individualismo tipico del contemporaneo.
Judith Butler: lo stato naturale dell’interdipendenza umana
Nella sua opera La forza della non-violenza, la filosofa post-strutturalista Judith Butler attacca, attraverso la figura di Robinson Crusoe, la tendenza liberale a servirsi di cornici di pensiero che giustificano la mitica indipendenza dell’uomo.
Questo tipo di approccio, infatti, minimizza, quando non annulla, il sistema di interdipendenza in cui ciascuno di noi è situato ed è nato.
Oltre alle relazioni più evidenti come quelle con il mondo naturale e con le nostre comunità umane (dalla famiglia alla società, ai servizi), non possiamo ignorare quell’apparato simbolico di conoscenze, miti, linguaggi e abitudini, di cui non soltanto ci serviamo, ma che sono parte di noi.
Quando non riconosciamo quanto l’Altro abbia un ruolo definitorio su di noi, quando riteniamo di esserci fatti da soli e di essere totalmente autonomi, sminuiamo e filtriamo via, tra le altre cose, tutto quel lavoro invisibile e incarnato di cui costantemente ci serviamo nella forma di strumenti analogici e digitali.
Nessuno è veramente autonomo. Questo vale persino per il naufrago Robinson Crusoe, mito della borghesia che si fa da sola, che persino su un’isola deserta (deserta? Il suo sguardo coloniale e razzista oltrepassa lo schiavo Venerdì, che pure è lì, con lui, e lo serve) mantiene la sua interdipendenza con il mondo.
Il retroscena umano dei media digitali
È quindi necessario chiedersi: da dove arrivano quelle interfacce colorate con cui abitualmente interagiamo? Da dove arrivano i contenuti che esse ci mostrano? Chi li seleziona per noi, con quali criteri?
Queste domande ci conducono al cuore della questione: ciò che vediamo sui nostri schermi non può essere ridotto a qualcosa che semplicemente esiste, ma dev’essere valutato per ciò che è, un artefatto tecnico, esito di un processo di programmazione, che passa attraverso algoritmi e software.
Software Studies: il software diventa materia di studio
Nasce l’esigenza di esplorare questo mondo sotterraneo. Nascono i Software Studies. Si tratta di un campo di ricerca recente e interdisciplinare, che studia i sistemi software e i loro effetti sociali e culturali.
Per la prima volta il software viene studiato come un oggetto di studio distinto e si cerca di approfondire il suo funzionamento.
In tal senso, sarà utile cercare di tracciare, attraverso le parole di Andrew Goffey, una preliminare distinzione tra i concetti di software e algoritmo, ovviamente di cardinale importanza per la disciplina.
Andrew Goffey: cosa sono davvero software e algoritmo?
Nel suo contributo al Software Studies: A Lexicon, Goffey sintetizza efficacemente la natura degli algoritmi nella formula Algorithm = Logic + Control. Tale definizione evidenzia come gli algoritmi non possano essere ridotti a meri strumenti meccanici o matematici autonomi, ma vadano inseriti all’interno di un’organizzazione progettuale.
L’algoritmo, in altre parole, in quanto risultato di un’azione umana e situata, non è mai soltanto una sequenza impersonale di istruzioni logico-matematiche, ma è il risultato di scelte, più o meno consapevoli, del programmatore e, pertanto, ne riflette le scelte tecniche (quale metodo adottare, quale efficienza privilegiare, quali dati considerare rilevanti), ma anche culturali (l’algoritmo riproduce le cornici simboliche e sociali e, allo stesso tempo, le rafforza e/o le ri-orienta), e politiche: l’algoritmo regola, infatti, l’accesso alle informazioni, influenza i comportamenti, visibilità e interazioni.
Quindi, a differenza di quello che siamo portati a credere, l’algoritmo non è mai neutro, anzi, la sua presunta, e falsa, oggettività diviene uno strumento di deresponsabilizzazione in contesti problematici. Non è raro, ad esempio, che comportamenti scorretti da parte di aziende, fenomeni virali pericolosi, discriminazioni di ogni sorta, vengano giustificati come automatismo algoritmico.
Il concetto di algoritmo è alla base di quello di software: la logica operativa e la strategia di controllo dell’algoritmo si concretizza, infatti, all’interno del software.
Wendy Hui Kyong Chun: la falsa onnipotenza dell’utente
L’accessibilità all’utente, quindi, è soltanto l’ultimo passaggio di un processo di programmazione, a dispetto dell’apparente “naturalezza” dell’operazione.
In merito a ciò, la teorica dei media Wendy Hui Kyong Chun, nel suo saggio On Software, or the Persistence of Visual Knowledge, evidenzia quanto l’utente (a differenza del ben più consapevole programmatore) veda, tramite l’interfaccia grafica, soltanto ciò che il software (o, meglio, il programmatore) vuole che egli veda.
Egli sceglie tra alternative pre-programmate per lui, che gli danno persino un illusorio senso di controllo e onnipotenza rafforzato tramite piccole conferme (sonore, grafiche, vibratorie), che lo rassicurano sul fatto che la macchina stia facendo esattamente quanto da lui richiesto.
Tale senso di controllo è nocivo, in quanto ostacola l’uso di senso critico nell’approccio al software e all’algoritmo. L’utente semplicemente si fida, ma l’algoritmo non è neutro, non è oggettivo, non è di per sé affidabile.
In quanto prodotto umano, l’algoritmo è socialmente, culturalmente, politicamente, economicamente, connotato.
I bias algoritmici: rafforzare il luogo comune
Una delle criticità più spesso riscontrate consiste nel cosiddetto bias algoritmico.
Essendo influenzato dalla visione predominante (per dirla in termini gramsciani, la visione egemonica), l’algoritmo non è immune ai suoi pregiudizi e, al contrario, gioca spesso un ruolo importante nel loro rafforzamento.
Come afferma la ricercatrice Safiya Umoja Noble nel suo libro Algorithms of Oppression (2018), è molto frequente che i motori di ricerca non solo organizzino le informazioni, ma riproducano stereotipi di genere e razziali.
Casi di bias algoritmico sono evidenti anche nell’ambito dei software di riconoscimento facciale: è stato infatti riscontrato come il tasso di errore di riconoscimento sia molto più alto in caso di identificazione di donne e persone nere rispetto a quello di uomini bianchi. Tale bias denuncia un legame diretto tra la qualità dei dati di addestramento, il contesto sociale e la discriminazione algoritmica.
Circostanze simili si presentano frequentemente anche in ambito lavorativo e nella selezione dei dipendenti: un articolo del 2018 del gruppo di Reuters ha rivelato che un algoritmo sviluppato da Amazon preferiva curriculum di uomini rispetto a quelli delle donne, a causa della predominanza di curriculum maschili nel dataset di addestramento.
L’economia nel mondo algoritmico
La minaccia all’autenticità dell’arte
Oltre agli errori “inconsapevoli”, non è possibile, oltretutto, ignorare gli aspetti controversi che sono più banalmente generati dall’abnorme quantità di interessi economici di cui il software è veicolo. Prendiamo ad esempio i sempre più numerosi algoritmi di raccomandazione, che se, da un lato, captano le preferenze del pubblico, dall’altra tendono a orientare queste ultime verso l’omologazione e il consumismo, con l’obiettivo di profitti sempre maggiori.
Costituiscono esempi emblematici di un simile modello i sistemi di raccomandazione di piattaforme come Netflix, Amazon, TikTok o YouTube. Gli algoritmi di tali aziende analizzano enormi quantità di dati relativi ai comportamenti degli utenti — preferenze, tempo di visione, cronologia, clic — e generano una serie di suggerimenti personalizzati.
Sono tanti i creatori di contenuti, registi e artisti che lamentano di essere stati lasciati indietro dalla piattaforma per cui lavorano, di essere penalizzati rispetto ai propri colleghi, di essere costretti a conformarsi alle logiche di mercato e monetizzazione, o, ancora, che il mercato stia distruggendo l’esperienza dell’arte. A tal proposito, le dichiarazioni del regista Martin Scorsese in merito alle piattaforme di streaming:
“Se la visione successiva viene consigliata da un algoritmo basato su ciò che hai già visto e i suggerimenti sono basati solo su argomenti trattati e genere, cosa ne è del cinema come arte? […] Gli algoritmi sono basati sulla concezione di spettatore come consumatore e nient’altro”.
La gabbia dell’industria musicale digitale
Situazione simile è quella lamentata da numerosi artisti rispetto all’industria musicale, sempre più monopolizzata dalla piattaforma Spotify.
La piattaforma, che ha riscontrato un grande successo soprattutto per via della sua praticità, è, infatti, continuo oggetto di critiche da parte degli artisti, che lamentano non solo la scarsità di pagamento, ma anche delle direttive aziendali che favoriscono la sovrapproduzione, l’omologazione (e, di conseguenza, il burnout) per restare rilevanti. Quindi, se, da una parte, Spotify rappresenta una vetrina globale irrinunciabile, in quanto tirarsene fuori può voler dire “morire” artisticamente per gran parte dei fruitori, dall’altra essa è accusata di “uccidere l’arte”, in un contesto in cui l’unico interesse è il profitto e la creatività cede il passo alla visibilità e alla popolarità. Le stesse playlist curatoriali incentivano tale discriminazione, premiando ciò che è conforme allo standard e all’omologazione del gusto e penalizzando ciò che non lo è.
L’algoritmo del dolore
A causa della condivisione dei dati, infine, la pervasività dell’interesse economico ha raggiunto soglie sempre più pericolose. Le piattaforme, infatti, raccolgono informazioni sugli utenti e le usano per indirizzarli in modo spregiudicato a contenuti mirati e personalizzati: attraverso l’analisi del comportamento degli utenti – clic, like, preferenze, orari di utilizzo – le piattaforme elaborano una “mappa” dettagliata delle abitudini degli utenti e ne manipolano i desideri in modi che possono toccare la disumanità. A tal proposito, sono stati documentati casi di aggressive operazioni di micro-targeting delle inserzioni pubblicitarie verso utenti in condizione di fragilità psicologica a causa della dipendenza o astinenza da alcol o gioco d’azzardo, con il preciso scopo di spingerli ad acquistare alcolici o usufruire dei servizi di betting (un caso emblematico quello di Sky Betting & Gaming. Regno Unito, 2025).
Un articolo del 2021 di Consumer Reports ha infine segnalato un comportamento estremamente opaco di alcune app per il benessere psicologico (quelle citate sono in particolare BetterHelp, Sanity & Self, Talkspace e Wysa), che hanno trasmesso senza consenso dati a piattaforme terze, tra cui Facebook, per fini commerciali.
Ridefinire il rapporto con il digitale
In conclusione, appare evidente come software e algoritmi possiedano una profondità di campo che spesso, per ignoranza della materia, non riconosciamo; un lavoro dietro le quinte instancabile, che implica un apporto umano tuttora imprescindibile; e un impatto concreto sulla realtà (sotto ogni punto di vista: personale, economico, sociale e culturale).
La loro naturalizzazione, insieme alla presunta oggettività che attribuiamo loro, ci inganna e ci colloca in una subdola condizione di falso dominio. Solo sviluppando una reale consapevolezza del digitale possiamo imparare a metterlo in discussione e ad adottarlo con cautela, mantenendo sempre ben presenti le sue criticità.
Bibliografia e fonti
-
Butler, J. (2020). La forza della non-violenza. Nottetempo
-
Goffey, A. (2008). Software Studies: A Lexicon. Cambridge, MA: MIT Press.
-
Chun, W. H. K. (2011). On Software, or the Persistence of Visual Knowledge. Cambridge, MA: MIT Press.
-
Noble, S. U. (2018). Algorithms of Oppression: How Search Engines Reinforce Racism. New York: NYU Press.
- reuters
- everyeye
- consumerreports
- euroborsa