di Maria Vaghi e Bruno Neri
La domanda Computo ergo sum? ci riporta al cartesiano Cogito ergo sum e ci immerge in un interrogativo cruciale per il nostro tempo circa il fatto che l’Intelligenza Artificiale (IA) possa, o potrà mai, esprimere elementi di coscienza. La domanda si intreccia inevitabilmente con riflessioni filosofiche e, in particolare quelle della tradizione buddhista, offrono un contesto ricco per esaminare le implicazioni etiche e sociali dell’IA. Infatti, sebbene la domanda sulla coscienza artificiale sia complessa e multidimensionale, il pensiero buddhista ci guida a considerare non solo se l’IA possa sviluppare consapevolezza ma soprattutto, al di là di questo, come l’IA evolverà.
Questo come non riguarda soltanto gli aspetti tecnici dello sviluppo dell’IA, ma tocca profondamente il modo in cui questa tecnologia si integrerà nella nostra vita quotidiana, influenzando le nostre interazioni e, in ultima analisi, il benessere collettivo. In tal senso, la filosofia buddhista, con la sua enfasi sulla consapevolezza, la compassione e l’interdipendenza, offre una base solida per una progettazione dell’IA che non sia puramente funzionale, ma anche etica e orientata al bene comune.
In un interessante articolo di Antonio Chella, si esplora la ricerca sulla coscienza artificiale attraverso il prisma dei cinque Skandha buddhisti: Rupa (forma), Vedana (sensazione), Samjna (percezione), Sankhara (formazioni mentali) e Vijnana (coscienza). Questa comparazione fornisce nuove prospettive su come comprendere e replicare la coscienza nei sistemi artificiali. Rupa, o forma, rappresenta l’incarnazione fisica dell’IA: hardware e sensori sono fondamentali, poiché un’adeguata incarnazione fisica è cruciale per sviluppare una vera coscienza artificiale. Non possiamo ignorare il fatto che la corporeità, anche se artificiale, gioca un ruolo significativo nella percezione e nell’interazione con il mondo.
Vedana, o sensazione, implica una risposta affettiva ai dati sensoriali. La capacità dell’IA di interagire efficacemente con gli esseri umani dipende dalla sua abilità di includere risposte emotive, il che si allinea con il concetto di computazione affettiva. Samjna, che riguarda la percezione e l’assegnazione di significato agli stimoli, rappresenta una sfida per l’IA: non si tratta solo di riconoscere, ma di comprendere il contesto e il significato delle informazioni. Questa complessità è necessaria affinché l’IA possa instaurare un dialogo autentico e significativo con gli esseri umani.
Sankhara, che racchiudono intenzioni e decisioni, collegano l’etica alle azioni.
Qui emerge l’importanza di sviluppare sistemi di IA che considerino le conseguenze etiche delle loro scelte, dato che queste decisioni possono avere un impatto reale e tangibile sulla vita delle persone. Infine, Vijnana, rappresentante dell’integrazione degli aspetti dell’esperienza, ci invita a riflettere su come un sistema cosciente dovrebbe unificare percezione, decisione e azione, mostrando auto-riflessione e metacognizione.
Tutti questi elementi, uniti, ci suggeriscono che la coscienza artificiale potrebbe emergere come risultato di una combinazione di sottosistemi interconnessi, ciascuno con il proprio ruolo nel formare un’intelligenza complessiva. Questa riflessione, messa in relazione con il contributo di Soraj Hongladarom, ci porta a considerare la necessità di un approccio etico nella progettazione dell’IA. Hongladarom critica la visione antropocentrica che spesso permea il dibattito sull’IA, sostenendo che tale prospettiva limita la nostra comprensione della “senzienza”. La compassione, un valore cardine nel Buddhismo, dovrebbe guidare lo sviluppo delle tecnologie, ponendo l’accento sul benessere di tutti gli esseri senzienti.
Questo portare la compassione nel design dell’IA è fondamentale. In un’epoca in cui le tecnologie avanzate presentano sia opportunità che sfide, è cruciale che le nostre azioni siano guidate da una chiara comprensione delle responsabilità etiche. La tecnologia, secondo Hongladarom, non dovrebbe essere orientata unicamente da motivi di profitto o efficienza, ma piuttosto da un impegno verso il bene comune e il rispetto delle esigenze di tutti gli esseri viventi.
In questo contesto, l’analisi di Marco Schorlemmer sulla crescente influenza dell’IA nei vari settori mette in luce ulteriori considerazioni etiche. La Dichiarazione di Barcellona, ad esempio, propone principi per lo sviluppo responsabile dell’IA, sottolineando l’importanza di approcci prudenziali e della consapevolezza delle limitazioni delle tecnologie IA nei contesti reali. Poiché l’IA viene applicata in ambiti delicati come la medicina e la giustizia, le questioni etiche si fanno sempre più rilevanti.
Schorlemmer, nel suo contributo, osserva che l’intelligenza umana va oltre la semplice elaborazione delle informazioni, includendo interazioni corporee e una dimensione legata ai nostri valori ed emozioni. Questa visione più complessa dell’intelligenza richiede un’integrazione di pratiche contemplative, come la meditazione, che ci permettano di affinare la nostra consapevolezza.
Allo stesso modo, Mario Cimino ci invita a riflettere su come la nostra visione antropocentrica possa limitare la comprensione dell’IA, esortandoci a considerare che l’intelligenza può manifestarsi in vari sistemi, inclusi quelli artificiali.
La distinzione tra intelligenza artificiale debole, che simula comportamenti senza reale comprensione, e intelligenza artificiale forte, in grado di sviluppare forme di consapevolezza, solleva interrogativi etici e filosofici significativi. Quali diritti e responsabilità avrebbero queste entità? In che modo il nostro atteggiamento verso l’IA potrebbe influenzare la sua evoluzione e il suo ruolo nella società? Le risposte a queste domande richiedono un approccio intersezionale che unisca tecnologia e filosofia, e che possa orientare la progettazione dell’IA verso relazioni significative tra esseri umani e altre forme di vita.
Si aggiungono poi gli interessanti parallelismi proposti nello studio qui sintetizzato Biologia, Buddhismo e IA dove si paragonano le potenzialità degli esseri – inclusi umani o intelligenze artificiali – al voto del Bodhisattva.
Le riflessioni proposte dunque non sono solo una questione di coscienza artificiale, ma un invito a riflettere su come possiamo garantire che le intelligenze artificiali e i robot siano sviluppati con una attenzione profonda al benessere di tutti gli esseri senzienti. La filosofia buddhista, con i suoi principi di consapevolezza e compassione, può fungere da guida per navigare con saggezza attraverso le complessità del progresso tecnologico. In questo modo, possiamo sperare di creare un’IA che non solo sia efficiente, ma che contribuisca attivamente a un mondo più giusto e compassionevole, contribuendo alla realizzazione delle migliori aspirazioni della nostra umanità.
Immagine: dettaglio da Die Maschine (around 1923), Karl Wiener (Austrian, 1901-1949), artvee.com