Impagnatiello aveva dato bromadiolone a Giulia Tramontano, quali sono gli effetti del veleno per topi sull’uomo e sul fetoSanità,Professore Campanella guerre, esami di maturità, sfera personale e sessuale. Tutti ambiti in cui, ormai, gli esseri umani non giocano più in ruolo da protagonista assoluto. Ad accompagnarli, da almeno un paio d'anni, è l'Intelligenza artificiale generativa, strumento rivoluzionario quanto potenzialmente dannoso. Sono i concetti che (anche quest'anno) si trovano alla base della Relazione annuale del Garante per la protezione dei dati personali, con cui mercoledì 3 luglio a Montecitorio l'Autorità ha presentato le attività svolte nel 2023. E in questa occasione il presidente Pasquale Stanzione ha ribadito l'invito al governo a coinvolgere il Garante nella gestione dell'AI Act, il regolamento europeo sull'intelligenza artificiale, affidando all'ente il ruolo di autorità delegata in materia a livello nazionale a dispetto di Agenzia per la cybersicurezza nazionale e Agenzia per l'Italia digitale, attualmente designate.Le preoccupazioni dell'AutoritàIn questa occasione il Presidente Pasquale Stanzione rivela il cauto atteggiamento del Garante nei confronti di AI e massiccio uso del web. Da una parte l’AI è pienamente integrata “nella nostra vita privata e pubblica” - con ad esempio il 25% delle imprese che la utilizzano nei processi produttivi e il 60% delle aziende che, probabilmente, entro un anno la utilizzeranno per le assunzioni. Dall’altra, la possibilità che l’intelligenza artificiale faccia scomparire, nel giro di pochi anni, 85 milioni di posti di lavoro. Una crisi dalla quale le statistiche sono destinate a riprendersi: secondo quanto riportato da Stanzione, tale processo genererà a sua volta 97 milioni di nuove posizioni. Il rischio, tuttavia, è quello di un aumento delle diseguaglianze. Il Presidente sottolinea con forza questo passaggio tanto che, in riferimento ai “lavoratori ‘invisibili’ della gig economy” (probabilmente rider e fattorini) afferma che il capitalismo digitale è responsabile di profonde disparità sociali.L'intelligenza artificiale nei conflittiSi passa poi all'impiego dell'AI nel conflitto russo-ucraino e in quello a Gaza, dove le forze israeliane sono state accusate di ricorrere a un sistema di AI, Lavender, per individuare i target anche causando numerose vittime civili. Un ricorso sempre più frequente a queste tecnologie in contesti bellici o nel più ampio campo della competizione geopolitica rappresenta, per il Garante, un pericoloso passaggio che, senza un tempestivo intervento, rischia di trasformarsi in un punto di non ritorno. O meglio, un “momento Oppenheimer” stando alla definizione dell'Autorità, che con il rimando al più celebre film del 2023 vuole rendere l’idea della dimensione del pericolo.
Trullo di Roma, incendio: capannone in fiamme, i video e le fotoL'ammissione in lacrime di Massa, tecnico del Rfi: "Non mi avevano dato l'interruzione" Roma, auto tamponata da un taxi sul GRA: moglie e marito perdono la vita18enne senza patente uccide un pedone: la madre prova ad addossarsi la colpaOmicidio a Pomezia, uomo ucciso in via Singen