L’Intelligenza Artificiale ha inaugurato l’era dell’oltre-umano, rendendo tangibile un’ipotesi fino a poco tempo fa solo immaginata nella narrativa e nella letteratura cinematografica ‒ dalla più risalente a quella più recente e fantascientifica ‒ di trasferire e sviluppare l’intelligenza umana attraverso processi non biologici in grado di mimare i processi cognitivi e adattivi naturali.

Manca per ora una definizione uniformemente accettata di Intelligenza Artificiale (IA); del resto è ancora molto complesso definire il concetto stesso di “intelligenza” umana. Gli studi convergono invece nel ritenere che alcuni dei processi alla base del machine learning simulano il procedimento computazionale facendo leva sull’uso incrociato di algoritmi matematici e sulla raccolta e analisi di ingenti quantità di dati (Big Data).

L’IA indubbiamente consentirà ‒ e già consente ‒ avanzamenti e progressi indiscutibili in molti rami del sapere umano e scientifico, ma non possono essere sottovalutati i rischi “inaccettabili” che i sistemi di intelligenza artificiale potrebbero generare quando costituiscono una minaccia per le persone, per la loro sicurezza o per i loro diritti fondamentali. Si comincia dunque ad avvertire l’esigenza di una regolamentazione giuridica del fenomeno in oggetto, ad oggi lacunosa o allo stato primordiale, benché l’UE stia rivestendo nel  mondo un ruolo pionieristico, dotandosi della prima legge sull’intelligenza artificiale. Uno dei profili critici è connesso all’uso di sistemi di identificazione biometrica, come il riconoscimento facciale, il cui impiego in Cina è documentato anche da questa Rivista (cfr. Annicchino, in Coscienza e Libertà, n. 63-64 del 2022), per sorvegliare, controllare e menomare i diritti delle minoranze, come gli uiguri.

Data la crescente capacità dell’IA di incidere (“affect”) anche sui diritti fondamentali ‒ per nulla equiparabile a quella finora dimostrata dalle altre forme di tecnologia ‒ la Call intende stimolare una riflessione tra studiosi e studiose di Law and Religion, Diritto costituzionale e Filosofia del diritto e Filosofia della scienza su alcune linee di ricerca riconducibili alle seguenti macro-aree:

  • Impatto dell’IA sui diritti fondamentali, in particolare sulla libertà di religione e di convinzione
  • Opportunità e rischi insiti, in riferimento al campo della libertà di religione e di convinzione, nella progettazione e programmazione degli algoritmi, nella raccolta ed elaborazione dei dati inerenti alle convinzioni personali religiose
  • Quadro normativo in materia di IA: status quo, profili critici, prospettive
  • Questioni etiche sollevate dall’uso dell’IA
  • Orientamenti delle Chiese, comunità religiose e di convinzione in materia di IA

Modalità di presentazione degli elaborati

L’abstract della proposta (massimo 3.000 caratteri spazi inclusi), con indicazioni bibliografiche minime, deve indicare: 1) nome e cognome dell’Autore/Autrice; 2) qualifica; 3) ente di afferenza; 4) indirizzo e-mail.

Gli abstracts dovranno pervenire alla casella di posta info@aidlr.it entro l’8 maggio 2024. Gli abstract saranno selezionati principalmente sulla base del loro taglio originale e innovativo. Le proposte selezionate dovranno essere sviluppate in forma di articolo (massimo 24.000 battute spazi inclusi) entro il 31 luglio 2024.

Info sull'autore

aidlr