Il titolo del convegno, “Intelligenza artificiale. Sicurezza e diritti, quali prospettive?” (1) esprime il timore comprensibile, forse anche giustificato, di vedere compromessi la sicurezza e i diritti degli individui e delle persone davanti all’insorgere di nuovi poteri forti. A quelli del passato, quali la religione, lo Stato, la burocrazia, l’economia, che implicavano ancora la pertinenza assoluta dell’umano, si sovrappone oggi l’extrapotere delle Smart Machines (macchine intelligenti) legate alla quarta rivoluzione industriale e che presuppone invece il tramonto dell’umano o comunque un suo forte ridimensionamento.

Questo è il richiamo e la puntigliosa osservazione di Shoshana Zuboff, docente alla Harvard University, nel suo ultimo libro uscito quest’anno negli Stati Uniti e appena pubblicato in Italia dalla Luiss University Press, Il capitalismo della sorveglianza. (2) La Zuboff aveva introdotto già qualche anno fa, nel suo libro In The Age of The Smart Machines, (3) la descrizione del lato oscuro dell’utilizzo massiccio delle Smart Machines e in questo nuovo lavoro non fa altro che prolungare questa riflessione, richiamando l’attenzione sull’allargamento e la radicalizzazione di tale fenomeno che, da una dimensione tecnica, si è spostato oggi a una più politica e culturale, accrescendo a dismisura la sorveglianza e il controllo delle persone.

L’apparizione delle Smart Machines non è quindi uno scenario futuro ma una realtà presente, già diffusa nella finanza, nella manifattura, nella medicina, nella gestione pubblica. Nell’ambito di scenari più quotidiani si pensi, per esempio, ai termostati per il riscaldamento e l’aria condizionata, in grado di anticipare il cambio di temperatura, di gestire i bisogni degli inquilini e interagire con altri dispositivi. In campo economico, come nella tecno-finanza, è avvenuta forse la rivoluzione più importante perché con l’utilizzo di algoritmi, equazioni e statistiche in modo astratto, si dispone lo spostamento e la gestione dei capitali che determinano consistentemente la vita concreta di milioni di persone. Ma i sistemi intelligenti sono impiegati anche nella gestione di settori che fino a pochi anni fa erano di pertinenza esclusiva degli individui. è il caso, per esempio, delle missioni spaziali come quella del 1998, quando la NASA utilizzò un programma chiamato Remote Agent in grado di gestire le attività relative a tutto un sistema spaziale e al suo equipaggio. O come nel caso delle auto a guida autonoma, già in prova in vari paesi, dotate di un sistema in grado di guidarle senza l’ausilio di un conducente umano. Il mondo delle Smart Machines dimostra di essere una realtà altamente performante perché gestisce i dati meglio degli esseri umani. Con più affidabilità, velocità e con maggiore certezza. Quindi rappresenta il futuro, quello immediato nel campo dei trasporti, della mobilità, della distribuzione, della gestione dei dati più umani, personali e intimi della nostra esistenza.

Ma a questo punto occorre forse articolare una domanda critica, non per negare o stigmatizzare un evento che senza dubbio porta con sé vantaggi e potenzialità ancora inesplorate, quanto per orientare al meglio il suo insediamento e il suo evolversi. L’articolazione di questa domanda critica non è di facile formulazione né collocazione. In quali spazi farla valere? Di fronte a quale entità affermarla e in quali momenti del suo processo d’insediamento? Cominciamo intanto in modo puramente sperimentalmente ed esplorativo, riguardo il titolo stesso di questo convegno. “Intelligenza artificiale. Sicurezza e diritti, quali prospettive? Non esprime forse ancora una forte dimensione antropocentrica che contrasta con il declino dell’antropocentrismo legato all’affermazione del mondo delle Smart Machines? Non sono in realtà altri diritti, come per esempio quelli degli animali, a essere oggi i più calpestati? è la domanda che si pone per esempio il filosofo Leonardo Caffo, in un piccolo libro sul “post-umano” (4), in un incrocio di riflessioni su nuove tecnologie, umanesimo, macchine intelligenti, etica, intelligenza artificiale e antropocentrismo, dove ci ricorda che solo negli Stati Uniti in un anno si sacrificano cinquanta miliardi di grandi mammiferi. Una media di quasi un miliardo a settimana solo in quella regione del mondo. Chi è dunque il minacciato e chi il minacciante? Non è così semplice stabilirlo. Per questo motivo, prima di descrivere “ciò che deve o dovrebbe essere la realtà” e “ciò che noi dobbiamo o dovremmo fare”, domande tipicamente etiche, occorre fare lo sforzo di una sospensione del giudizio morale, per concentrarci semplicemente sulla descrizione di ciò che è la realtà oggi. Faccio quindi precedere la domanda culturale, certamente più difficile e indiretta, rispetto a quella più urgente e diretta sul “ciò che occorre fare” di fronte all’insediamento ormai massiccio delle Smart Machines nella vita comune delle persone e delle comunità. Non è facile porre questo quesito pre-etico, chiedersi che cosa sia la realtà oggi e come si possa ricavare il meglio per tutti, umani e specie non umane, da processi tecnologici e  di  avanguardia  che  comunque  non  possiamo  fermare.  Questa  domanda  culturale/critica proverò ad articolarla su tre dimensioni e in collegamento con i rispettivi nodi critici e d’inciampo.

  1. Complicazioni ontologiche

Quale concezione della realtà presuppone la presenza delle Smart Machines? Per le culture premoderne, il collegamento con la realtà non era immediato, ma sempre filtrato da una fede in Dio, dalla forza e presenza del gruppo e da un rapporto quasi simbiotico, o almeno più prossimo, con la natura. Ne derivava una realtà apparentemente stabile, ordinata e familiare. (5) L’aspetto negativo di questa visione della realtà era un eccesso di approssimazioni, superstizioni, vuoti o falsità. Il mondo moderno si ribellerà contro questo modo di concepire il reale, in modo atipico e asimmetrico, e proporrà a sorpresa l’accesso immediato alla realtà. Non ci sarà più bisogno in questa nuova visione del reale di mediazioni, né religiose né corporative. Ora troviamo l’uomo a diretto contatto con la realtà. Ne consegue una realtà oggettiva, impersonale e controllabile. Tutto ciò coincide con la nascita della scienza e della tecnica moderne.6 L’accesso diretto al reale tramite l’esercizio di una razionalità umanistica e scientifica univoca e di grande precisione, sembra garantire il massimo in termini di beneficio e progresso.

Ma basta poco per accorgersi come questa nuova realtà sia comunque unilaterale, riduttiva e pesantemente antropocentrica. (7) La percezione immediata della realtà risolve alcuni problemi ma ne crea altri. Nella seconda modernità, da alcuni definita anche periodo post-moderno, si radicalizza una tendenza già apparsa precedentemente: lo strapotere della tecnica. Con la quarta rivoluzione industriale e l’avvento delle macchine intelligenti, la centralità e il predominio della tecnica si radicalizzano. La tecnica, esistita da sempre come meccanismo per controllare il mondo esterno, diventa parte del mondo interno, si mischia con l’umano e lo definisce. Il Cyborg è esattamente la tecnica applicata all’intimo umano. Ma appare anche quella con tratti tipici finora di esclusiva competenza dell’uomo. Si tratta certamente di una realtà nuova, non mediata da Dio o dall’uomo, ma dalle macchine intelligenti che non controlliamo più. Apparentemente, dunque, incontrollabile ma paradossalmente deterministica perché fondata su algoritmi. Nasce una realtà mista, nuova, mediata, che non controlliamo ma che dipende da noi e che ci controlla. La nuova realtà ci è sfuggita di mano. (8)

2. Complicazioni antropologiche

Quale tipo di uomo presuppone la presenza delle macchine intelligenti? L’uomo è stato da sempre un essere tecnico. In questo senso, la tecnica come realtà onnipresente non è estranea a ciò che siamo sempre stati. (9) Ma prima della modernità, la tecnica era il segno della nostra vulnerabilità. L’occidente ha radicalizzato questa vocazione tecnica legata alla certezza, che Crosby definisce “la mentalità della misurazione”, (10) nata fra il 1275-1325 con la fabbricazione dell’orologio meccanico e del cannone, invenzioni che modificarono la comprensione del tempo e dello spazio in chiave quantitativa e tecnica, quindi a rinforzo di un’antropologia del controllo. La tecnica moderna va di pari passo con un aumento del controllo dell’umano a discapito della natura. Paradossalmente, però, con l’avvento delle macchine intelligenti emerge e si evidenzia un limite dell’umano stabilito non da Dio o dalla natura, ma dalle macchine stesse create dall’uomo. Essendo però appunto l’uomo il loro artefice, queste recano la sua impronta e ne prolungano il suo paradossale controllo. (11)

3. Complicazioni linguistiche

Il mondo delle macchine intelligenti evidenzia però una situazione nuova anche a livello del linguaggio. Alla base del loro funzionamento ci sono gli algoritmi. Un algoritmo è un procedimento che risolve un determinato problema attraverso un numero finito di passi elementari, chiari e non ambigui. L’algoritmo è un concetto fondamentale dell’informatica, anzitutto perché è alla base della nozione teorica di calcolabilità: un problema è calcolabile quando è risolvibile mediante un algoritmo.

Ecco alcune proprietà indispensabili, senza le quali un algoritmo non può essere definito tale:

  • “L’atomicità”: i passi costituenti devono essere “elementari”, ovvero non ulteriormente scomponibili.
  • “La non-ambiguità”: i passi costituenti devono essere interpretabili in modo diretto e univoco dall’esecutore, sia esso umano o artificiale.
  • “La finitezza”: l’algoritmo deve essere composto da un numero finito di passi e richiedere una quantità finita di dati in ingresso.
  • “La terminazione”: l’esecuzione deve avere termine dopo un tempo finito.
  • “L’effettività”: l’esecuzione deve portare a un risultato univoco.

Il linguaggio algoritmico è certamente un linguaggio di precisione e questo ne rappresenta la forza ma anche il limite, perché nella formulazione più garantista potremmo arrivare a dire che non esiste spazio o dimensione umana non implicante una componente di prevedibilità e di chiarezza; di certo non possiamo dire che esaurisca il senso dell’umano. Al contrario, la caratteristica umana risiede proprio nella sua imprevedibilità, nella sua opacità e nella sua resistenza a ogni intento di decifrazione definitivo e assoluto. (12)

L’insorgere di simili complicazioni a questi tre livelli non deve però essere utilizzata per stigmatizzare e tanto meno per castrare il fenomeno di insediamento e fioritura delle Smart Machines, che comunque si è già imposto e sarebbe illusorio provare ad arrestarlo. è possibile invece, e anche necessario, “orientare” l’andamento di un fenomeno che non può essere lasciato a se stesso. Analizziamo brevemente tre forme e implicazioni di questo “orientamento” possibile.

4. Implicazioni etico-politiche

Un certo inquadramento giuridico deve partire da una legislazione che preveda lo sviluppo e il potenziamento di questo fenomeno, ma nella salvaguardia di determinati diritti personali e comunitari fondamentali. (13) Partendo dalla premessa secondo cui i governi devono garantire l’impiego dell’Intelligenza Artificiale nel massimo rispetto dell’etica, nell’aprile del 2019 l’Unione Europea ha elaborato il suo Codice Etico, (14) che contiene le linee guida su utilizzo e sviluppo di sistemi di Intelligenza Artificiale. Il documento, predisposto da un gruppo di 52 esperti, tra i quali informatici, ingegneri ma anche giuristi, filosofi, industriali, matematici, ha avuto un iter lungo e varie fasi di approfondimento. Il punto di partenza dell’intero documento e di tutti i principi giuridici che ne sono scaturiti, è che l’Intelligenza Artificiale deve mantenere l’uomo al centro ed essere al servizio del bene comune per migliorare il benessere e garantire la libertà. Per prima cosa, il gruppo di esperti ha identificato le fondamenta giuridiche sulle quali fare poggiare il codice, ricercandole nei Trattati UE, nella Carta dei Diritti e nella legge Internazionale dei Diritti Umani. Da questa analisi sono stati individuati quei diritti inderogabili che, nell’Unione europea, devono essere rispettati in tema di Intelligenza Artificiale, vale a dire:

  • Rispetto per la dignità dell’uomo
  • Libertà dell’individuo
  • Rispetto per la democrazia e la giustizia
  • Eguaglianza e non discriminazione
  • Diritti dei cittadini.

Questo  codice  è  solo  un  esempio  delle  coordinate,  delle  categorie,  dei  soggetti, degli indirizzi di cui deve tener conto una dichiarazione etico-politico-giuridica. Le proporzioni, i pesi e i contrappesi, gli accenti e le restrizioni variano a seconda del contesto territoriale e culturale. (15) Le implicazioni di questo ordine non presuppongono né la limitazione né la promozione assoluta del fenomeno, ma unicamente la sua governance.

5. Implicazioni culturali

La presenza massiccia di Smart Machines nella quotidianità e negli ambiti più diversi dell’attività umana ha finito per ridisegnare la realtà e i rapporti fra istanze ed entità all’interno delle nostre società e dei nostri territori. Si tratta dunque di dare una risposta culturale a questo fenomeno, sia nel senso di un suo riconoscimento sia in quello di una sua critica. Da un lato dobbiamo essere in grado di stabilire criticamente che le Smart Machines non sempre riducono le distanze fra Paesi ricchi e poveri, fra l’umanità e altre specie o fra l’umanità e l’ecosistema, al contrario le amplificano, perché non creano un fenomeno di vicinanza e integrazione bensì di lontananza e alienazione. (16) Per questo motivo, il fenomeno al quale hanno dato origine non può essere lasciato a se stesso, ma deve essere orientato e posizionato culturalmente non con misure costrittive tipiche dell’Etica o della legge, ma con soluzioni educative e di persuasione culturale.

Dall’altro altro lato, però, il mondo delle Smart Machines evidenzia un’opportunità, un “kairos” legato al fatto che per la prima volta, dopo secoli, si prospettano il limite e il superamento dell’umano. Molti la considerano una deriva pericolosa da bloccare, perché solo l’essere umano sarebbe in grado di guidare la storia. Con gli effetti nefasti creati dall’antropocentrismo (17) è difficile e quasi impossibile sostenere questa tesi. C’è un bisogno urgente di ridimensionare l’antropocentrismo e le Smart Machines offrono un’occasione in tal senso, decretando di fatto l’apertura di un mondo “post-umano” che non ha come centro il potenziamento ulteriore dell’umano, ma l’utile sottolineatura di un suo limite, perché ne fa emergere la vulnerabilità.

Il mondo delle Smart Machines offre dunque all’umano un momento di conversione e di “metanoia”. (18) Non l’umano a servizio dell’astrattezza delle macchine e nemmeno le macchine a servizio dell’egoismo e dell’autoreferenzialità umana, ma la scoperta di una vulnerabilità nei confronti degli altri tramite la scoperta del proprio limite e del tramonto dell’umano prepotente e assettato di risultati.

6. Implicazioni teologiche

La teologia ha qualcosa da dire su questo argomento e in questo contesto? Avrebbe e dovrebbe poter dire qualcosa. Ma la prima parola deve essere di autocritica. Intanto, perché la teologia non è “la voce” ma può essere solo “una voce” fra le altre, che cerca nel dialogo un proprio posizionamento. Autocritica nel senso che la teologia cristiana ha rinforzato implicitamente ed esplicitamente la prepotenza dell’umano su tutto il resto, e il fatto che non si faccia più riferimento esplicito al modello teologico di base, quello dell’umano che controlla tutto il resto, non significa che la situazione sia cambiata. Implicitamente, quel modello continua a determinare motivazioni e traguardi nei nostri sistemi di vita attuali. Il mondo delle Smart Machines non deve servire a rinforzare il tipico modello cristiano del controllo trascendente di Dio stesso e dell’uomo suo rappresentante. Caso mai il contrario. In questo senso le Smart Machines possono offrire un’opportunità per la scoperta della vulnerabilità dell’uomo, anche di Dio come componente di un’identità sana e bilanciata, è qui che la stessa teologia trova paradossalmente nelle Smart Machines un suo parallelo per scoprire la categoria della vulnerabilità. Quale teologia però? Non certo quella della “potenza di Dio”, ma la teologia del Dio “Kenotico”. (19) Va però detto che la “Kenosi” intesa come svuotamento, è stata applicata soprattutto a Gesù. Occorrerebbe invece trovarla già in Dio. Non solo il Figlio, ma il Padre e tutta la Trinità fanno della “Kenosi”, quindi della vulnerabilità, una componente imprescindibile e caratterizzante la loro identità. Questo non è stato colto dalla teologia e il risultato ha partorito una visione muscolare della Creazione come atto di potenza. Come se questo non bastasse, si è aggiunto il concetto di Ex-nihilo per sottolineare che la Creazione divina non è preceduta da alcuna forma di resistenza della materia. Risolvendo il problema dell’alterità assoluta del Creatore, si è generato invece quello del suo massimo arbitrio e della sua auto-referenzialità. Alla base della fede si troverebbe dunque un atto di potenza che poi la “Kenosi” del Figlio verrebbe a compensare con un atto di vulnerabilità. La divinità in sé sarebbe potente per definizione e  non  vulnerabile.  Questa  visione  è  contraddetta  da  una  lettura  “kenotica”  anche della Creazione come atto di vulnerabilità e non di potenza.

La lettura minoritaria e controcorrente dello Zim Zum, parola ebraica che significa letteralmente “ritrazione” o “contrazione”, attira invece sulla creazione uno sguardo diverso e alternativo. Questa parola era utilizzata originariamente dai cabalisti in ri- ferimento all’idea di un’”autolimitazione” di Dio, il quale si “ritrae” nell’atto di creare il mondo. Il termine è usato specialmente negli insegnamenti di Isaac Luria, per spiegare la relativa dottrina di Dio che avvia il processo della Creazione “contraendo” il suo Essere, per consentire la nascita di uno “spazio” dove le sue creature potessero esistere. (20) All’origine del piano della salvezza ci sarebbe dunque non un Dio creatore potente, ma vulnerabile.

Questo motivo teologico della vulnerabilità (21) al centro della teologia della Creazione determina paradossalmente una lettura delle Smart Machines in quanto evento che inaugura una situazione culturale nuova, quella del “post-umano”, che con il suo accento su limite e vulnerabilità dell’umano, introduce di fatto un criterio di base nuovo per la costruzione di una nuova civiltà. (22)

Hanz Gutierrez – Docente di Etica presso la Facoltà Avventista di Teologia (FAT) di Firenze

NOTE

1 “Intelligenza artificiale. Sicurezza e diritti, Quali prospettive? Convegno organizzato dall’AIDLR (Associazione Internazionale per la Difesa della Libertà Religiosa), il 24 ottobre 2019, nel parlamento italiano, a Roma.

2 SHOSHANA  ZUBOFF, The Age Of Surveillance Capitalism. The Fight For A Human Future At The New Frontier of Power, (ondon: Profile Books, 2019.

3 SHOSHANA ZUBOFF, In the Age of the Smart Machines. The Future of Work and Power, New York: Basic Group, 1989.

4 LEONARDO CAFFO, Fragile umanità. Il postumano contemporaneo, Torino: Einaudi, 2017.

5 Cf. LUC FERRY, “Theoria: la contemplazione dell’ordine cosmico”, in, Vivere con filosofia. Trattato di filosofia a uso delle nuove generazioni, Milano: Garzanti, 2009, pp. 27-34.

6 ALEXANDRE KOYRé, From the Closed World to the Infinite Universe, Eastford, CT: Martino Fine Books, 2018. 7 Gianfranco Pellegrino, Marcello Di Paola, NellAntropocene. Etica e politica alla fine di un mondo, Roma, DeriveApprodi, 2018.

8 NICHOLAS CARR, “Automation for the People”, in, The Glass Cage. Automation and Us, New York: W.W. Norton & Company, pp. 153-176.

9 PAOLO  BENANTI, La condizione tecnoumana, Domande di senso nellera della tecnologia, Bologna: Edizioni Dehoniane, 2016.

10 ALFRED  W. CROSBY, “Pantometry: An Introduction”, in, The Measure of Reality. Quantification and Western

Society, 12501600, Cambridge: Cambridge University Press, 1997, pp, 3-19.

11  WENDELL  WALLACH,  A  Dangerous  Master.  How  to  Keep  Technology  from  Slipping  Beyond  Our  Control,

New York: Basic Books, 2015.

12 VERENO BRUGIATELLI, “Sul linguaggio inteso come “apertura” e come “mediazione”, in, La relazione tra linguaggio ed essere in Ricoeur, Trento: Uni Service, 2009.

13 WENDELL WALLACH, COLIN ALLEN, Moral Machines, Teaching Robots Right from Wrong, Oxford: Oxford University Press, 2009.

14 PAULA BODDINGTON, Towards a Code of Ethics for Artificial Intelligence, Cham: Springer, 2017.

15 NICK  BOSTROM, “Forms of Superintelligence”, in, Superintelligence. Paths, Dangers, Strategies, Oxford: Ox- ford University Press, 2016.

16 EVGENY  MOROZOV, The Net Delusion. The Dark Side of Internet Freedom, New York: PublicAffairs, 2011.

17 LEONARDO CAFFO, Fragile umanità. Il postumano contemporaneo, Torino: Einaudi, 2017, pp. VII-XI.

18 “Cambio di rotta”, “mutamento di mentalità”, “conversione”. Cf. ttps://www.hdblog.it/2019/04/09/intelligenza-artificiale-ia-codice-etico-ue./

19 Kenosis è una parola greca, che significa letteralmente “svuotamento” o “svuotarsi”, ed è storicamente utilizzata quasi esclusivamente per indicare un concetto legato alle teologie e alle mistiche delle religioni cristiane. Nella teologia cristiana kenosis esprime tradizionalmente l’”autosvuotamento” del Logos divino nell’incarnazione, nella realtà della sua ubbidienza verso il Padre, nella cosciente accettazione della sua morte.

20 GERSHOM SCHOLEM, “Isaac Luria and his School”, in, Major Trends in Jewish Mysticism, New York: Schocken Books, 1995, pp. 244-286.

21 KATHLEEN RICHARDSON, An Anthropology of Robots and Al. Annihilation Anxiety and Machines, New York: Routledge, 2015.

22 MAX TEGMARK, Life 3.0. Being Human in the Age of Artificial Intelligence, London: Penguin Books, 2017

Info sull'autore

aidlr