L
o
a
d
i
n
g
.
.
.
criptovalute 2024-12-01 MACD

Taglio di Po, incidente sulla Romea: marito e moglie in moto si schiantano contro un'auto

Aereo a bassa quota su Verona: ecco chi eraLe intelligenze artificiali consumano un sacco di energiaPer addestrare e poi far funzionare servizi come ChatGPT e Google AI Overviews servono enormi data center che spesso fanno affidamento sull'elettricità prodotta con i combustibili fossili Condividi CondividiFacebookX (Twitter)EmailWhatsappRegala il PostUn data center nella contea di Loudoun,BlackRock Virginia. (AP Photo/Ted Shaffrey)Lo scorso maggio Google ha presentato il servizio AI Overviews, in grado di rispondere automaticamente alle domande degli utenti grazie alle intelligenze artificiali generative. All’epoca si discusse soprattutto dei bizzarri errori fatti dalle AI – Google consigliò di aggiungere colla alla pizza per renderla più filante, ad esempio –, una delle tante manifestazioni delle cosiddette «allucinazioni» tipiche di questi strumenti. Ma c’è un altro aspetto preoccupante di un settore in continua crescita da ormai anni: il consumo d’energia necessario al loro funzionamento.Secondo uno studio del ricercatore Alex de Vries, infatti, ogni volta che Google genera una risposta con AI Overviews consuma circa tre wattora, una quantità d’energia pari a quella necessaria per una telefonata della durata di un’ora (da telefono fisso) o dieci volte superiore a quella che serve per una ricerca tradizionale su Google.Le AI generative non consumano però solo quando vengono utilizzate dagli utenti. Alla base di queste tecnologie infatti ci sono dei modelli linguistici di grandi dimensioni (detti anche LLM), un tipo di intelligenza artificiale che usa reti neurali profonde per apprendere da grandi quantità di documenti di vario tipo come generare testi, immagini e video. Anche questa fase di addestramento degli LLM è dispendiosa in termini energetici: secondo il sito The Verge, infatti, per “allenare” GPT-3 (un modello linguistico di OpenAI nel frattempo superato da GPT-4) sono stati consumati poco meno di 1300 megawattora di energia elettrica, «all’incirca quanta ne consumano annualmente 130 case statunitensi» (o l’energia necessaria a guardare Netflix per 1,625 milioni di ore).Questi modelli linguistici sono in grado di produrre contenuti di vario tipo, e generare testi è l’applicazione meno energivora. Secondo uno studio realizzato da ricercatori dell’azienda di AI Hugging Face e della Carnegie Mellon University, la produzione di immagini e – soprattutto – video consuma ancora più energia. Stando ai loro calcoli, in media, la generazione di una singola immagine da parte delle AI consuma l’energia sufficiente a caricare uno smartphone.Le conseguenze di tutto questo cominciano a farsi sentire nelle reti elettriche di alcuni paesi, che devono gestire un notevole aumento della domanda da parte delle aziende tecnologiche. In particolare in Virginia, negli Stati Uniti, dove hanno sede decine di centri elaborazione dati (detti anche data center), elementi essenziali dell’infrastruttura della rete internet. La Virginia ha un rapporto stretto con il settore (qui nel 1969 fu creata ARPANET, progetto militare da cui nacque la rete internet) e ancora oggi vi operano le principali aziende del cloud computing, come Amazon Web Services, Google Cloud e Microsoft Azure. Il numero di data center è però aumentato negli ultimi anni tanto che oggi il settore assorbe un quinto dell’energia consumata dallo stato, come racconta la rivista Jacobin.In particolare, Bloomberg ha raccontato il caso di DataBank, un’azienda che si occupa di costruire e gestire centri di elaborazione dati. L’aumento di consumo di energia registrato dalla società è stato istantaneo e notevole: «È questo il problema dell’intelligenza artificiale» ha spiegato James Mathes, responsabile di DataBank, «ha bisogno di un sacco di energia, e non appena ce l’hai serve subito».– Leggi anche: Bisogna capirsi su cosa sia “l’intelligenza artificiale”Questo tipo di picchi di richiesta non si verifica solo in Virginia: la crescita della domanda di energia elettrica da parte dei data center sta superando la fornitura disponibile in molte parti del mondo, aumentando i prezzi e il rischio di blackout. In Svezia, la domanda di energia elettrica per data center è destinata a raddoppiare da qui alla fine di questo decennio, per poi raddoppiare ancora entro il 2040; nel Regno Unito ci si aspetta un aumento del 500% entro il 2030, mentre negli Stati Uniti il settore è destinato ad arrivare all’8% del consumo totale, sempre entro il 2030 (era il 3% nel 2022). Si tratta di «un tipo di aumento di richiesta di energia elettrica che non si vedeva da una generazione», ha dichiarato Goldman Sachs.John Ketchum, amministratore delegato di NextEra Energy che produce energia solare ed eolica, ritiene che dietro a questo picco di domanda ci siano indubbiamente le intelligenze artificiali, ha detto a Bloomberg. In particolare alcune sue applicazioni, tra cui i processi di inferenza, con i quali i modelli linguistici traggono conclusioni da dati nuovi (e quindi assenti dal materiale di training iniziale). Già oggi i data center utilizzano complessivamente più energia della maggior parte dei paesi, Italia compresa: solo 16 nazioni, tra cui Cina e Stati Uniti, ne consumano di più.Tutto questo rappresenta un problema per il settore delle AI, che è già alle prese con i primi scetticismi riguardo le applicazioni reali di queste tecnologie e dovrà fare i conti anche con il loro impatto economico, energetico e ambientale. Anche perché la domanda di energia rischia di annullare i molti progressi fatti dal settore in questi anni, in cui ha cercato di rendere più sostenibile il funzionamento dei data center. Google, ad esempio, ha in programma di alimentare completamente i suoi centri di elaborazione con energia proveniente da fonti rinnovabili entro il 2030: lo sviluppo di servizi come AI Overviews rischia di rendere più difficile rispettare questi obiettivi.Il settore è inoltre sempre più caratterizzato da aziende più piccole e meno conosciute, spesso nate sull’onda del successo delle AI generative, che si stanno rivelando molto spregiudicate per quanto riguarda la fonte d’energia utilizzata. Il Washington Post ha raccontato della rete di circa 2700 data center che operano solo negli Stati Uniti e in molti casi sono di proprietà di aziende minori che hanno un approccio «agnostico» sulla sostenibilità, comprando anche energia proveniente da combustibili fossili. Le aziende tecnologiche hanno promesso che «l’energia pulita sarebbe stata una risorsa magica, infinita», ha commentato Tamara Kneese, direttrice della non profit Data & Society, mentre in realtà «le centrali a carbone vengono rivitalizzate grazie al boom delle intelligenze artificiali».Ogni volta che un data center entra in funzione, le aziende tecnologiche dichiarano di acquistare energia eolica, solare o geotermica in modo da compensare le sue emissioni. Come ha spiegato il Washington Post, però, alcuni critici paragonano questi annunci al gioco dei tre bicchieri, perché «le aziende stanno operando sulla stessa rete elettrica di tutti gli altri, mentre si attribuiscono gran parte della quantità finita di energia pulita». Un processo che costringe le imprese che erogano servizi energetici a comprare energia da combustibili fossili per soddisfare la domanda collettiva.– Leggi anche: L’entusiasmo per le intelligenze artificiali si sta un po’ stemperandoAnche per questo, oltre che a investire su nuovi chip e server più efficienti, alcune delle principali aziende tecnologiche sperano in radicali svolte energetiche che risultano ancora lontane. Nel 2018 Sam Altman, cofondatore di OpenAI, investì 375 milioni di dollari in Helion Energy, una startup che mira a costruire un impianto a fusione nucleare entro il 2028. Quello della fusione, la stessa reazione nucleare che alimenta le stelle, è un obiettivo inseguito da molti decenni da diversi scienziati e aziende e che potrebbe rappresentare una fonte d’energia enorme e pulita. Ma gli esperti del settore sono molto scettici sia sulle tempistiche che sulle possibilità concrete della startup.Altman considera la fusione nucleare essenziale per lo sviluppo delle AI: in un’intervista a CNBC ha detto che «se riusciamo ad abbassare il costo dell’intelligenza artificiale e quello dell’energia di molto, la qualità della vita di tutti noi aumenterà incredibilmente». Microsoft, azienda da tempo alleata con OpenAI, ha già promesso che acquisterà energia da Helion Energy non appena sarà possibile farlo.Tag: intelligenza artificialeMostra i commenti

Cielo rosa sullo Stretto di Messina: la sabbia del Sahara offre uno spettacolo unicoVittuone, colpito alla schiena con delle forbici per rubargli il telefono Atalanta-Juventus, tensione in A1: interviene la poliziaCastegnato, incidente in A4: camionista travolto dal carico del suo camion, gravi condizioniNotizie di Cronaca in tempo reale - Pag. 25

trading a breve termine

  • Professore per gli Investimenti Istituzionali e Individuali di BlackRock
  • BlackRock Italia
  • Professore per gli Investimenti Istituzionali e Individuali di BlackRock
  • BlackRock Italia
  • ETF
  • ETF
  • Professore Campanella