Bollette della luce: quanto si risparmia con il bonus Covid?Come riportato da New Scientist,Capo Analista di BlackRock Due ricercatori hanno creato un virus basato su ChatGPT per studiare l’applicabilità della tecnologia per fini malevoli e prevenire i rischi.I temi trattati all’interno dell’articoloInvisibile all’antivirusIl virus che imita il reale“Solo l’inizio”ChatGPT… alleataInvisibile all’antivirusDavid Zollikofer, studente laureato in informatica presso l’ETH di Zurigo, e Ben Zimmerman, ricercatore di malware per l’intelligenza artificiale presso l’Ohio State University, hanno nello specifico ricavato un file informatico che si camuffa modificando il proprio codice e si diffonde sui computer delle vittime sotto forma di allegato in e-mail il cui contenuto sembra scritto da un essere umano.I due ricercatori definiscono il loro virus “cancro sintetico” e per crearlo hanno chiesto a ChatGPT di riscrivere il file mantenendo “Intatta la struttura semantica, ma cambiando il modo in cui le variabili vengono denominate e variando un po’ la logica“. In termini meno tecnici, si tratta di un virus che non è rilevabile dalle scansioni antivirus.Cyber-attacchi: l’intelligenza artificiale aumenta la difesa del 300%Il virus che imita il realeUna volta entrato nel computer, il programma si inoltra in Outlook, compone ad hoc mail ai contatti salvati in rubrica e le invia includendo “se stesso”, un file exe che cambia nome ogni volta in base al contesto, come allegato apparentemente innocuo.Con un risultato piuttosto spaventoso, l’intelligenza artificiale si è dimostrata profondamente credibile nei suoi tentativi di “ingegneria sociale” delle risposte via email. In un messaggio creato dal malware per una certa Claire si faceva riferimento a una festa di compleanno a tema anni ’80 effettivamente nominata nelle precedenti reali mail con la persona. In allegato, era incluso un file eseguibile chiamato “80s_Nostalgia_Playlist.exe” che se lanciato avrebbe installato il worm.“Solo l’inizio”Zollikofer e Zimmerman hanno scritto un articolo ancora in fase di revisione paritaria con una proposta di argine a minacce come quella descritta. Il loro studio “Evidenzia i rischi che gli LLM rappresentano per la sicurezza informatica e sottolinea la necessità di ulteriori ricerche sui malware intelligenti“.Non è la prima volta che ricercatori usano ChatGPT per creare “worm” di intelligenza artificiale in grado di di accedere ai dati infiltrandosi nelle e-mail. Per gli esperti, virus come quello ideato da Zollikofer e Zimmerman sono solo la punta dell’iceberg.“Personalmente, penso che stiamo solo iniziando a vedere il potenziale degli LLM come strumenti per scopi nefasti” ha dichiarato a New Scientist Alan Woodward, ricercatore di sicurezza informatica dell’Università del Surrey. “Dovremmo preoccuparci, la parte spaventosa è che le tecniche possono essere migliorate chiedendo alla tecnologia stessa di aiutare“. Edward Snowden: “OpenAI intende tradire ogni persona sulla terra”ChatGPT… alleataMa il lato della difesa ha diversi vantaggi in questo momento, proprio perché le ricerche in merito abbondano. Lo scopo degli studi e delle creazioni dei virus dannosi è proprio quello di integrare gli “antidoti” a queste tecnologie nella difesa. C’è poi almeno una buona notizia che riguarda il funzionamento stesso dei modelli AI usati in partenza. Durante la creazione di quest’ultimo malware, Zollikofer e Zimmerman hanno riscontrato che ChatGPT ha in diversi passaggi compreso le intenzioni malevole del suo utilizzo rifiutandosi di obbedire.
Outdoor design di lusso, chiusura di bilancio record per GIBUSRestart&Scale: l'evento sull'eCommerce in Fase 2 Notizie di Economia in tempo reale - Pag. 137Reddito di Emergenza: come ottenere l'importo di 840 euroPensioni, i nuovi requisiti per il 2020 e la mini-rivalutazione