AI&Conflicts. Volume 1
Krisis Publishing, 2021
Paglen, Crawford & Joler, Pasquinelli, Brunton & Nissenbaum, Weizman, Iaconesi & Persico, Manovich, Crespo & McCormick.
A cura di Francesco D’Abbraccio e Andrea Facchetti.
Sulla comprensione dell’intelligenza artificiale pesa l’ombra della cultura pop. Tanto è il fascino che questo concetto ha esercitato sulla nostra fantasia, che prima ancora che la scienza e la tecnologia riuscissero ad applicarlo in contesti concreti la letteratura, il cinema e il fumetto lo avevano già esplorato in lungo e in largo, depositando nell’immaginario collettivo immagini, conflitti e dinamiche narrative già ben delineate. Da Skynet a Jarvis, passando per gli androidi di Philip K. Dick e le macchine di Matrix, sono ormai decenni che ci confrontiamo con il concetto di intelligenza artificiale. Oggi che le tecniche di intelligenza artificiale, nelle forme del deep e machine learning, vengono applicate costantemente in numerosi ambiti della nostra vita individuale e collettiva, è a causa di questa dimestichezza e di questo immaginario che facciamo così fatica a comprenderne davvero il funzionamento.
Edito da Krisis Publishing, il primo volume della serie Ai&Conflicts si propone proprio di aiutarci a comprendere meglio l’intelligenza artificiale, affrontando il tema da una molteplicità di punti di vista, che compone quella rete di sguardi multidisciplinari necessaria ad affrontare l’argomento da una prospettiva critica e teorica. Rispetto ad altre pubblicazioni sul tema, il volume ha il pregio di non concentrarsi sulle applicazioni o le possibilità di sfruttamento dell’intelligenza artificiale, bensì di tracciare una mappa di concetti utili per confrontarsi con essa e con l’impatto che sta avendo sulle nostre vite.
Come scrivono i curatori del volume nell’introduzione, l’intelligenza artificiale è “una risorsa fondamentale per interpretare il mondo e per interagire con le grandi architetture di dati che lo popolano essa modella il modo in cui sperimentiamo il mondo”. È perciò di fondamentale importanza non solo capirne il funzionamento, ma anche tracciarne le linee di sviluppo, per capire da quali genealogie e discorsi è generata e quali genera a sua volta. Questo passaggio è essenziale per non cadere in due scorciatoie logiche: quella per la quale la tecnologia è neutra e quella per la quale la tecnologia è determinata una volta per tutte. Ogni tecnologia, e l’intelligenza artificiale non fa eccezione, è il frutto dei rapporti di forza interni alla società e i suoi principali utilizzi li rispecchiano, ma questo non vuole dire che non sia possibile modificare quei rapporti di forza e, di conseguenza, gli usi di una tecnologia.
Nella direzione di favorire questa comprensione va il saggio di Matteo Pasquinelli Tremila anni di rituali algoritmici. Pubblicato originariamente su e-flux, il saggio mostra come gli algoritmi siano “tra le pratiche più antiche e materiali dell’umanità e, in quanto tali, hanno anticipato molti strumenti e tutte le macchine moderne”. Per farlo Pasquinelli recupera la memoria di alcuni antichi rituali che, per il loro alto grado di codificazione, si configurano come operazioni algoritmiche. Dunque, suggerisce Pasquinelli, la logica algoritmica precede cronologicamente la definizione stessa di algoritmo e perciò “possiamo distinguere tre stadi nell’evoluzione degli algoritmi: nell’antichità si trovano di fatto forme algoritmiche in procedure e rituali codificati per raggiungere uno scopo, risolvere un problema pratico o trasmettere delle regole; nel Medioevo algoritmo era il nome dato a una procedura adottata per svolgere operazioni matematiche; in Età moderna l’algoritmo – inteso come procedura logica altamente formalizzata – viene prima automatizzato da macchine e in seguito da computer digitali”. Addentrandosi lungo questa linea di sviluppo ci si accorge quindi che esiste un filo rosso che lega le moderne tecnologie digitali a pratiche e rituali di società antichissime. È possibile perciò “delineare una definizione elementare di algoritmo”, che lo descrive in quattro elementi. Il primo di essi è la natura diagrammatica e astratta dell’algoritmo, che “emerge dalla ripetizione di un processo, da un’organizzazione del tempo, dello spazio, del lavoro e delle operazioni”; il secondo rappresenta la “divisione di questo processo in un numero finito di fasi finalizzata alla ripetizione e al controllo efficiente dello stesso”; il terzo è “la soluzione ad un problema, un’invenzione che progredisce oltre le costrizioni di una situazione”; il quarto “consiste nel fatto che l’algoritmo è un processo economico, poiché deve utilizzare il minor numero possibile di risorse in termini di spazio, tempo ed energia, adattandosi ai limiti della situazione”.
Questa ricostruzione mette in dubbio l’idea assai diffusa che gli algoritmi siano operazioni astratte eseguite sull’enorme mole di dati oggi disponibile, ma evidenzia come essi siano piuttosto una forma che “si è sviluppata a partire da pratiche materiali, da una divisione mondana dello spazio, del tempo, del lavoro e delle relazioni sociali”.
Sottolineare la materialità delle tecnologie digitali e dell’intelligenza artificiale è uno dei primi passi verso una loro più profonda comprensione. Questo è lo scopo del saggio Anatomia di un sistema AI di Kate Crawford e Vladan Joler. All’interno di esso viene tracciata e ricostruita la filiera di relazioni materiali e immateriali che permettono a un assistente digitale domestico di funzionare. L’estetica e l’ideologia dell’intelligenza artificiale operano per associarla al regime dell’immateriale, rimuovendo quegli effetti concreti che Crawford e Joler riportano al centro dell’attenzione nel loro lavoro. Un sistema di intelligenza artificiale opera e rimuove al tempo stesso le profonde conseguenze materiali che rendono possibile la sua esistenza. Prendere coscienza di questa dimensione materiale e terraformante dei sistemi digitali che utilizziamo serve per collocarli meglio all’interno di quel paradigma estrattivo che ha molteplici forme e caratterizza il capitalismo contemporaneo. A questi livelli l’estrazione non si limita più allo sfruttamento indiscriminato delle risorse naturali, ma si estende ad altri campi della vita da cui estrae incessantemente valore in un complesso assemblaggio che lo stesso Joler ha provato a ricostruire per allegorie e concetti in un saggio/diagramma intitolato New Extractivism. Scorrendolo è interessante notare la natura visiva della nostra condizione di utenti di questo genere di sistemi. Quando veniamo risucchiati nei loophole generati dalle piattaforme, finiamo per trovarci all’interno di una sorta di caverna platonica dove siamo sottoposti alla proiezione personalizzata di contenuti costruiti in seguito ai processi di estrazione del valore dei dati generati dai nostri stessi comportamenti. In un certo modo siamo influenzati da ombre e proiezioni di noi stessi, che si alimentano in un circolo vizioso. Tuttavia questo è solo un lato della natura visiva dei sistemi di intelligenza artificiale. L’altro lato è al centro di Immagini invisibili, il testo di Trevor Paglen che apre la raccolta. Paglen ragiona sulla progressiva separazione della cultura visiva dalla visione umana. Oggi infatti “la stragrande maggioranza delle immagini è ormai creata da macchine per altre macchine”. Un processo che genera una sostanziale invisibilità di queste dinamiche per cui le immagini “hanno cominciato a intervenire nella vita quotidiana e le loro funzioni si sono trasformate: esse non sono più chiamate a rappresentare e mediare, ma ad attivare, operare ed eseguire”. Tutto questo può avvenire, nota ancora Paglen, in maniera automatica e senza che l’uomo debba e possa intervenire nel processo. Ciò permette l’esercizio di una straordinaria quantità di potere, senza che chi lo esercita possa essere chiamato in causa, dal momento che ogni decisione appare come automatizzata, autonoma e oggettiva.
Come proteggersi dunque da questo potere tanto incommensurabile quanto sfuggente? I curatori del volume provano a rispondere a questa domanda selezionando due saggi, Data obfuscation di Finn Brunton e Helen Nissenbaum e Verifica aperta di Eyal Weizman.
Il primo esplora le tecniche di offuscamento dei dati che possono essere messe in capo individualmente o in forma collettiva per sfuggire alla presa di sistemi di intelligenza artificiale, che il saggio analizza anche da un punto di vista morale e legale. L’offuscamento è definito come “la produzione di informazioni fuorvianti, ambigue, plausibili ma confuse, per occultare o eludere i mezzi di sorveglianza”. Questa condizione può essere ottenuta attraverso diverse modalità e rispondere a diverse motivazioni, nonché tipologie del potere degli attori che cercano di ottenerla. Burton e Nissenbaum distinguono quattro tipologie: su base temporale, come nel caso della perfomance Google Map Hacks, dell’artista tedesco Simon Weckert; di tipo cooperativo, come nel cosiddetto swapping pools, ovvero lo scambio casuale di tessere fedeltà tra utenti; di tipo selettivo, quando si rivendica la possibilità di scelta di quali dati si desidera offuscare, così come è previsto oggi dalle norme del GDPR in materia di tracciamento dei dati di navigazione; di tipo elusivo, quando si vogliono rendere i propri dati incerti e inaffidabili, ad esempio utilizzando un software come Track Me Not. In tutti questi casi, l’offuscamento avviene secondo una dinamica bottom up, ovvero è adottato per proteggersi in una relazione di potere dove chi è tracciato è in una posizione di potere sfavorevole rispetto a chi traccia. Tuttavia esso può essere esercitato anche secondo una dinamica top down, ovvero da chi gestisce il potere a chi ne è oggetto. È il caso delle narrazioni alternative che il potere mette in campo per coprire le proprie tracce.
Verifica aperta di Weizman è dedicato alle possibilità che i sistemi digitali offrono per sfuggire all’offuscamento, quando esso viene operato dall’alto verso il basso. La riflessione nasce dall’esperienza del collettivo di indagine e ricerca Forensic Architecture e si riferisce a una “pratica contingente, collettiva e multiprospettica” che affronta l’epistemologia oscura tipica dell’era della postverità, incrociando pratiche di analisi open source dei dati alla presenza sul campo di testimoni oculari dei fatti. La verifica aperta deve infatti “far collassare la distanza tra l’analisi open source e la prossimità di un’attività impegnata sul campo, e stabilire un contatto diretto con le persone e le comunità esposte alle violenze (del potere NdA)”. Così operando, questa pratica mette in questione sia i tradizionali luoghi deputati all’accertamento della verità, sia le pratiche e le teorie che li fondando, per proporre una nuova idea di giudizio e verità dei fatti, adeguata all’epoca e alle tecnologie contemporanee di attestazione della realtà.
Entrambi questi saggi dimostrano quindi come esista la possibilità di sottrarsi alla presa del potere, anche quando questo è armato di strumenti tecnologici estremamente raffinati come quelli messi a sua disposizione dall’intelligenza artificiale.
Chiudono la raccolta due ultimi testi. Il primo, firmato da Lev Manovich, si interroga sulle possibilità artistiche dell’intelligenza artificiale; il secondo, di Salvatore Iaconesi e Oriana Persico, è il diario di una sperimentazione sociale con l’intelligenza artificiale, all’interno di uno storico quartiere della periferia romana. Alla luce di questa breve panoramica dei temi raccolti nel primo volume di Ai&Conflicts, questa serie si dimostra così un approfondito tentativo di restituire sia il livello del dibattito critico e teorico internazionale sui temi dell’intelligenza artificiale, sia un ottimo strumento per avvicinarsi a questo tema conservandone intatta tutta la complessità e la profondità.