Medio Oriente, Meloni sente presidente Iran: "Evitare escalation e riaprire dialogo"Martedì scorso i legislatori della California hanno votato per promuovere una legge che richiederebbe alle aziende di intelligenza artificiale di testare i propri sistemi e di aggiungere misure di sicurezza per impedire che vengano potenzialmente manipolati per distruggere la rete elettrica dello Stato o contribuire alla produzione di armi chimiche. Scenari che,criptovalute secondo gli esperti, potrebbero essere possibili in futuro, man mano che la tecnologia si evolve a velocità sostenuta.Il senatore democratico Scott Wiener, autore del disegno di legge, ha affermato che la proposta garantirebbe standard di sicurezza ragionevoli prevenendo “danni catastrofici” provenienti da modelli di intelligenza artificiale potenti che potrebbero essere creati prossimamente.La proposta di legge è fortemente osteggiata da società di venture capital e aziende tecnologiche, tra cui Meta e Google. Le big tech sostengono che le normative prendono di mira gli sviluppatori mentre dovrebbero invece concentrarsi su coloro che utilizzano e sfruttano i sistemi di AI per arrecare danni.
Pompei, turista inglese sfregia la Casa delle Vestali: «Volevo lasciare un segno del mio passaggio»I piedi scalzi di fra Riccardo e le mie domande in cerca di luce Montagna, equipaggiamento adatto e occhio al meteo: i consigli per le vacanze sicureTutti i Memling di Bruges si ammirano in uno scrignoRussia, la minaccia di Putin: "L'Europa è nel mirino"