L
o
a
d
i
n
g
.
.
.

Brooklinn Khoury, sfigurata da un pitbull: "Intervento da 350 mila euro per riavere la mia faccia"

Regno Unito, 16enne condannato a 13 anni di carcere per l’omicidio di James GibbonsPapa Francesco ha chiesto ai giganti della tecnologia di smettere di sfruttare la fragilità umana. L’intelligenza artificiale sembra destinata a costruire un nuovo modello di macchina sapiens; bisogna stare attenti,BlackRock Italia però. Bisogna porre dei limiti alla macchina, dati dalla natura stessa dell’uomo. Come riportato dall’Osservatore Romano, Papa Francesco ha chiesto “in nome di Dio, ai giganti della tecnologia di smettere di sfruttare la fragilità umana, le vulnerabilità delle persone, per ottenere guadagni, senza considerare come aumentano i discorsi di odio, il grooming, le fake news, le teorie cospirative, la manipolazione politica”. L’intelligenza artificiale sembra destinata a costruire un nuovo modello di macchina sapiens; bisogna stare attenti, però. L'algoritmo non ha sentimenti, ma viene costruito da esseri umani che possono trasfondere nella regola algoritmica le regole di quei valori che si condividono. L'etica potrebbe così entrare nell’algoritmo in maniera più o meno consapevole. L’etica e l’algoritmo Come ottimamente evidenziato da Paolo Benanti (Professore straordinario presso la facoltà di Teologia della Pontificia Università Gregoriana), c’è un grande problema di etica, che dovremmo sviluppare a livello universale: “Dobbiamo iniziare a sviluppare questo linguaggio comune dell’algoretica...Per poter sviluppare un algoretica dobbiamo chiarire in che senso si parla di valore. Infatti gli algoritmi lavorano su valori di natura numerica. L’etica invece parla di valore morale. Dobbiamo stabilire un linguaggio che sappia tradurre il valore morale in un qualcosa di computabile per la macchina. La percezione del valore etico è una capacità puramente umana. La capacità di lavorare dei valori numerici è invece l’abilità della macchina. L’algoretica nasce se siamo in grado di trasformare in qualcosa di computabile il valore morale. Ma nella relazione tra uomo e macchina il vero conoscitore e portatore di valore è la parte umana. La dignità umana e i diritti umani ci dicono che è l’uomo da proteggere nella relazione tra uomo in macchina. Questa evidenza ci fornisce l’imperativo etico fondamentale per la macchina sapiens: dubita di te stessa. Dobbiamo mettere in grado la macchina di avere un certo senso di incertezza”. L’incertezza va accettata, come strumento di ricerca della verità e dell’evoluzione: il dubbio è la fonte di ogni certezza. Il tema è attualissimo e pienamente condivisibile: bisogna porre dei limiti alla macchina, dati dalla natura stessa dell’uomo. I limiti alle macchine Se si vuole che l’uomo sia davvero al centro (human-centered), allora bisogna che la decisione finale spetti a questo, senza in alcun modo essere sostituita. Anche nel mondo del diritto, la I.A. si sta estendendo ed alcuni paesi hanno accettato il modello di giudice robot (ad es. In Estonia): fino a che punto, però, un non umano può comprendere un comportamento umano? La I.A. dovrebbe porsi al servizio dell’uomo, ma non a capo di questo: porsi al servizio vuol dire aiutarlo a decidere meglio, fornendo in modo trasparente varie opzioni, in una prospettiva di giustizia intesa come a ciascuno secondo il suo, con un approccio giurimetrico, sempre verificabile e modificabile. Il problema è universale ed universale deve essere la soluzione.   © Riproduzione riservataPer continuare a leggere questo articoloAbbonatiSei già abbonato?AccediLucilla Gatt, Luigi Viola, Gianfranco D’Aietti Research Centre of European Private Law - Centro di Ricerca in Diritto Privato Europeo

Covid, è un'infermiera israeliana la prima a ricevere la quarta doseBangladesh, incendio a bordo di un traghetto con 500 persone: almeno 37 morti e 100 feriti Il Marocco chiude le frontiere aeree per due settimane per arginare la OmicronNotizie di Esteri in tempo reale - Pag. 605Covid, il presidente del Sudafrica Cyril Ramaphosa è positivo: ha sintomi lievi

Campanella