Allerta meteo mercoledì 24 agosto, le indicazioni della Protezione Civile: sei Regioni in gialloEcco come gli Stati stanno regolando l’etica dell’intelligenza artificialeCon il proliferare di strumenti sempre più complessi di intelligenza artificiale,MACD si è fatta sempre più strada l’idea che fosse necessaria una regolamentazione del settore. In particolare, una delle prime questioni finite sul tavolo di politica, think tank e accademici è quella relativa all’etica dell’AI (di cui abbiamo parlato anche in questo approfondimento). In questo articolo, analizziamo come gli Stati si stanno muovendo per regolamentare l’utilizzo etico dell’intelligenza artificiale, a partire dai casi di Unione europea, Stati Uniti e Cina.L’approccio europeo all’etica dell’AII risvolti etici dell’AI sono molteplici: dai più banali errori, si passa a questioni che possono inficiare il mondo sociale e la vita umana. Proprio per questo risulta di particolare interesse andare ad analizzare l’azione normativa degli Stati e come essi stiano cercando di regolare l’etica dell’intelligenza artificiale, onde evitare rischi e usi impropri dalle conseguenze negative.Nel 2019 l’Unione europea ha pubblicato le Linee Guida Etiche sull’intelligenza artificiale ideate dal Gruppo di Esperti della Commissione Europea. Obiettivo di questo gruppo è infatti stabilire quei requisiti necessari e fondamentali per un’AI affidabile, in particolare per quanto riguarda temi legati alla privacy e alla sicurezza.I sette requisiti stabiliti dall’Ue per un’intelligenza artificiale etica sono:Supervisione umanaRobustezza e sicurezzaPrivacy, controllo e gestione dei datiTrasparenzaDiversità, correttezza, assenza di discriminazioneBenessere sociale e ambientaleResponsabilitàIl nostro Paese, l’Italia, oltre ad accogliere i principi europei, nel 2018 ha pubblicato il Libro Bianco sull’intelligenza artificiale al servizio del cittadino. Un documento nel quale si mettono a fuoco le riflessioni sull’AI, sui rischi e sulle opportunità che essa comporta, e sui principi che devono regolare lo Stato, le imprese e i cittadini per quanto riguarda l’uso dell’intelligenza artificiale.I principi etici statunitensiPer quanto riguarda il dibattito sull’etica dell’AI negli Stati Uniti, invece, si segnalano due direttive principali: l’iniziativa privata e quella governativa.Nel 2018, infatti, Google ha reso noto i propri principi etici di intelligenza artificiale. Secondo il colosso di Mountain View, l’AI deve essere: socialmente benefica; evitare di creare o rafforzare pregiudizi ingiusti; essere costruita o testata per la sicurezza; essere responsabile nei confronti degli utenti; incorporare principi di progettazione della privacy; sostenere elevati standard di eccellenza scientifica; essere disponibile per usi confermi a questi principi.In ambito governativo, a muoversi è stato il Dipartimento della Difesa. Come ha dichiarato la Chief Information Officere Dana Deasy, «l’intelligenza artificiale è la massima priorità di sviluppo tecnologico del Dipartimento della Difesa». L’Innovation Board del Ministero ha lavorato 15 mesi, consultandosi con i maggiori esperti di AI, per mettere nero su bianco i 5 principi che guidano la sua azione nel campo AI. Secondo il dipartimento della Difesa Usa, l’intelligenza artificiale deve essere responsabile, equa, tracciabile, affidabile e governabile.Etica AI: come si sta muovendo la Cina?Guardando a Oriente, nel 2019 la Cina ha pubblicato i propri principi etici per un uso corretto dell’Intelligenza Artificiale, sviluppati grazie alla collaborazione dell’Istituto di Ricerca di Pechino per l’Intelligenza artificiale con l’Università di Pechino, l’Università di Tsinghua, l’Istituto di automazione, l’Accademia cinese delle scienze, l’Istituto di Tecnologia Informatica e aziende come Alibaba e Tencent.I principi di AI di Pechino sono 15 in totale, e dovrebbero essere seguiti al fine di tutelare la comunità e lo sviluppo umano.La ricerca e lo sviluppo dell’Intelligenza Artificiale dovrebbero conformarsi ai seguenti principi: essere vantaggiosa; essere al servizio dell’umanità; essere responsabile; controllare i rischi; adottare metodi di progettazione etica; riflettere la diversità e l’inclusività; incoraggiare una condivisione aperta.L‘utilizzo dell’Intelligenza Artificiale dovrebbe conformarsi ai seguenti principi: uso corretto e attento; consenso informato; istruzione e formazione.L‘amministrazione dell’Intelligenza Artificiale dovrebbe conformarsi ai seguenti principi: ottimizzazione dell’occupazione; armonia e cooperazione; adattamento e moderazione; perfezionamento e implementazione; pianificazione a lungo termine.L’importanza della supervisione umanaCome visto, Paesi anche molto diversi tra loro si stanno muovendo nella direzione di un’azione normativa per tutelare l’eticità dell’intelligenza artificiale. Un primo passo che non può prescindere dalla collaborazione con tutte le realtà coinvolte nel campo. Un intervento normativo che si auspica non essere dettato dall’alto, ma che nasca dalla condivisione di principi e finalità tra i diversi campi interessati da questo grande cambiamento: quello sociale, politico, economico, accademico e industriale.In particolare, in questa sede, si sottolinea l’importanza della supervisione umana (così come espresso anche dal primo principio dettato dall’Unione europea). Al di là della questione normativa, non è possibile affrontare rischi e problemi etici senza l’intervento umano. Solo la sinergia tra AI e supervisione umana può infatti garantire che l’efficienza garantite dalle macchine non valichi alcuni confini etici ritenuti invalicabili proprio dalla società umana.
Coronavirus, bilancio del 25 agosto 2022: 23.438 nuovi casi e 84 morti in piùBestemmia alla festa del paese, ma i carabinieri lo sentono: multa da 200 euro Papa Francesco: "Coppie preferiscono cani e gatti ai figli"Caro bollette, lo sfogo di Casa Vissani: "Se ci vogliono far chiudere basta che ce lo dicano"Allerta meteo della Protezione Civile a Napoli e Campania: in arrivo temporali improvvisi