Enrico Nardelli (2024).
Articolo completo. Chi crede nell’esistenza di un mondo spirituale ritiene che vi possano essere entità che prescindono dalla realtà materiale, ma per quelli agnostici non si dà una mente senza un corpo fisico. Per il digitale vale questo secondo punto di vista: i post sui social che sempre più incessantemente emettiamo (un miliardo al giorno su Facebook, mezzo miliardo su X, secondo questa fonte) hanno bisogno di appoggiarsi su qualcosa di concreto. La sempre più elevata attenzione all’impatto ambientale di ciò che l’umanità sta realizzando ha finalmente risvegliato la consapevolezza su questo elemento troppo spesso trascurato negli ultimi vent’anni, in cui la tecnologia digitale ha penetrato ogni risvolto delle nostre esistenze.
I bit saranno pure immateriali, da un punto di vista concettuale, ma non possono esistere senza una realtà fisica che li rende possibili. Da tale constatazione deve derivare l’attenzione a due “lati oscuri” (sia perché non immediatamente evidenti, sia perché potenzialmente negativi) legati alla dimensione fisica del digitale.
Affrontiamo il primo di questi lati oscuri. Nell’ubriacatura generale della società scatenata dalla diffusione nei primi venti anni di questo secolo delle tecnologie informatiche a (quasi) tutta la popolazione mondiale, ci si è dimenticati che chi controlla la dimensione fisica ha in pugno tutta la sfera digitale. Con Internet, possiamo credere di essere cittadini del mondo che viaggiano liberamente da un sito in Brasile a uno in India, ma in realtà chi controlla i sistemi fisici su cui i nostri percorsi digitali si snodano può, esattamente nello stesso modo con cui agisce un agente di dogana alla frontiera, impedirci l’accesso (ne parlo nel capitolo 7 “Impatto sociale dell’informatica” del mio volume La rivoluzione informatica).
La natura libertaria e anarchica con cui negli ultimi decenni del secolo scorso si era sviluppata quella rete Internet che è stata la condizione necessaria per la successiva esplosione, attraverso gli smartphone, delle piattaforme social, ci ha per molto tempo illuso. Invece, chi controlla “i fili elettrici” su cui transitano i bit continua, com’è sempre stata caratteristica di chi controlla le frontiere, ad avere il potere di decidere chi può passare e chi no.
L’importanza della dimensione fisica, richiamata anche in un recente intervento pubblico dell’eccellente collega Juan Carlos De Martin, sta pian piano riemergendo in modo sensibile, in conseguenza del frenetico sviluppo delle tecniche di elaborazione dati dell’intelligenza artificiale, che porta a consumare quantità di energia elettrica sempre maggiori, con un impatto ambientale significativo. John Hennessy, già presidente dell’università di Stanford e presidente del consiglio di amministrazione di Alphabet, la casa madre di Google, ha dichiarato all’agenzia di notizie Reuters che una ricerca fatta su un motore con l’intelligenza artificiale costa 10 volte di più di una ricerca tradizionale. Secondo uno studio di Alex De Vrjes, data scientist alla “De Nederlandsche Bank”, pubblicato sulla rivista scientifica Joule, specializzata nel settore dell’energia, nel 2027 il settore dell’Intelligenza Artificiale potrebbe consumare complessivamente tra gli 85 e i 134 TeraWattOra, una quantità simile al consumo energetico annuale di paesi come Argentina, Olanda e Svezia.
C’è poi un’ulteriore riflessione da aggiungere, legata sempre alla dimensione fisica: nonostante l’informatica, avvalendosi anche di tecniche matematiche, metta a disposizione metodi estremamente sofisticati di proteggere le informazioni scambiate, che sono alla base della sicurezza di tutti gli scambi di dati digitali (transazioni finanziarie, controllo degli accessi, etc.), chi controlla il livello fisico avrà sempre i mezzi per violare tali metodi. Nell’incorporeo universo della matematica 2+3 fa sempre 5, ma se il risultato di 2+3 deve essere computato da dispositivi fisici di cui non si ha il pieno controllo non è detto che faccia sempre 5. La crittografia è sicura solo se si rimane nell’astrazione dei teoremi matematicamente dimostrati. Quando un algoritmo viene calato nella realtà concreta dei sistemi digitali, non si può avere fiducia nella sua corretta esecuzione se non si controlla tutta la catena che dalla sua trascrizione in un programma informatico arriva fino al dispositivo fisico che lo esegue, incluso quest’ultimo, come aveva messo in evidenza sin dal 1984 Ken Thompson, ricercatore dei famosi laboratori Bell negli USA e uno dei due inventori del sistema operativo UNIX, successivamente premiato con il Turing Award – il premio Nobel per l’informatica.
Quindi, se non possediamo le infrastrutture fisiche attraverso le quali ci scambiano quei dati digitali che sono ormai essenziali per il buon funzionamento di ogni società avanzate, se non realizziamo e controlliamo quei sistemi informatici che animano tali infrastrutture, saremo sempre più colonia che stato sovrano.
Questa è un’analisi di tipo, diciamo così, “politico”, che andrebbe quindi assimilata prima di tutto da chi, per professione, fa il politico e poi da ciascun essere umano, zòon politikòn, cioè “animale politico”, secondo l’immortale definizione di Aristotele.
C’è poi un secondo “lato oscuro” del digitale (anch’esso nelle due valenze di non essere ben noto e di prestarsi ad usi potenzialmente malefici), che è importante conoscere. Gli elementi digitali con i quali interagiamo non sono quelli “passivi”, costituiti da dati che sono memorizzati in maniera più o meno permanente su qualche dispositivo fisico, ma quelli “attivi” rappresentati da un programma informatico in esecuzione su un qualche calcolatore. Però, mentre la nostra “mente” è indissolubilmente legata al nostro corpo fisico e noi possiamo attraverso di essa comprendere gli altri esseri umani e relazionarci pienamente ad essi proprio perché sappiamo di condividere un corpo fisico della stessa natura, l’interazione con un qualunque sistema informatico non avviene condividendo questa base comune.
Non solo, noi acquisiamo informazioni sul mondo attraverso gli organi fisici di senso del nostro corpo e le trasformiamo in dati per le nostre elaborazioni attraverso un dialogo bidirezionale che avviene tra essi e il nostro cervello, il che spiega come mai alle volte non ci si accorga di qualcosa che invece è presente in maniera sensibile. Al contrario, un qualunque sistema digitale o riceve rappresentazioni già definite (e chi controlla come vengono costruite influenza chiaramente l’esito della loro elaborazione) oppure attraverso dispositivi fisici che niente hanno in comune con i nostri sensi.
Ancora, mancando di un corpo fisico, qualunque sistema informatico è intrinsecamente privo della possibilità di avere auto-coscienza, cioè coscienza di se stesso, e quindi di provare emozioni, che sono fondamentali per il buon andamento della società e per essere davvero in relazione con i nostri simili, e di essere consapevole di esse. Aggiungo che, se anche si riuscisse a dare un corpo fisico a un sistema di intelligenza artificiale, si tratterebbe sempre dell’auto-coscienza di una specie aliena rispetto alla razza umana.
Si tratta di elementi assolutamente rilevanti, che dobbiamo aver ben presenti, per tutte le considerazioni che stiamo svolgendo sull’intelligenza artificiale e sull’utilizzo dei suoi strumenti nell’interazione con le persone. Essi infatti sembrano possedere caratteristiche tipiche dell’essere umano, quali la comprensione del linguaggio e delle situazioni. Però, non è così: ciò dipende essenzialmente dal fatto che noi proiettiamo le nostre capacità su ciò che essi producono (ne ho parlato qua, qua e qua) e la comprensione di questa fondamentale diversità tra persone e sistemi di intelligenza artificiale è essenziale. Essi sono “macchine cognitive” e, come tutte le macchine, possono essere di grande aiuto all’essere umano, purché facciamo sempre attenzione a non antropomorfizzarle.
Da qui ne consegue che non dobbiamo consentire in alcun modo che tali prodotti abbiano il potere di decidere su alcun aspetto della nostra esistenza. Possono fornire un utile ausilio informativo, ma la decisione finale e la sua intera responsabilità devono essere legate a un essere umano. Questo è il punto chiave per il ruolo dell’intelligenza artificiale nella società.
Pubblicato su StartMagazine il 1°maggio 2024