Lo studio: i 'loop distruttivi' tra l'AI e l'uomo - AI newsNel corso dell’ultima settimana si sono diffuse perplessità e indignazione tra molti utenti delle applicazioni Adobe. Alcune modifiche ai termini di servizio hanno lasciato presupporre per qualche giorno che l’azienda intendesse utilizzare i singoli progetti per addestrare modelli di intelligenza artificiale. L’avviso inaspettatoLo scorso mercoledì tutti gli utenti hanno hanno ricevuto un avviso che riportava “potremmo accedere ai tuoi contenuti tramite metodi sia manuali che automatizzati “. Il linguaggio era vago ma è stato sufficiente per destare preoccupazione per via della menzione specifica a quel “sistemi automatizzati”. I social network si sono riempiti di critiche e molti utenti hanno minacciato di abbandonare l’uso delle applicazioni per proteggere il proprio lavoro creativo ed evitare che potesse essere utilizzato come materiale di addestramento per gli strumenti di intelligenza artificiale di Adobe. Ovviamente non è mancata una specifica preoccupazione sulla privacy degli utenti che lavorano con informazioni riservate.L’antitrust francese multa Google per l’uso dei dati: prima volta per una big techSpiegazione o marcia indietro?CampanellaIn risposta alle critiche, Adobe ha fatto una marcia indietro precisando che i contenuti non saranno usati negli addestramenti, parlando di un generico errore nell’aggiornamento della policy. “Avremmo dovuto modernizzare e chiarire prima i termini del servizio – ha dichiarato il presidente dei digital media di Adobe, David Wadhwani – Inoltre, avremmo dovuto restringere i termini in modo più proattivo per adattarli a ciò che effettivamente facciamo e spiegare meglio quali sono i nostri requisiti legali”.La community però è rimasta solo parzialmente rassicurata dalle sue parole. Nel corso degli ultimi mesi Adobe ha dichiarato di avere addestrato il suo modello di AI Firefly su contenuti di pubblico dominio archiviati in Adobe Stock. Molte persone però sostengono che l’AI di Adobe genererebbe contenuti palesemente ispirati anche a materiale degli utenti e coperto da copyright.Una questione di fiduciaLa raccolta dati di addestramento per i modelli di intelligenza artificiale da parte delle aziende che producono e distribuiscono applicazioni nel mondo creativo è una questione complessa. La necessità di creare tool AI per sopravvivere nel mercato è innegabile. Tuttavia è difficile per le aziende tracciare delle linee nette in merito a quali contenuti vadano protetti da copyright. D’altro canto è difficile anche per i creativi capire in quali casi concedere i propri dati rappresenta uno sfruttamento e in quali può rappresentare un’opportunità.Negli ultimi giorni anche Meta è nell’occhio del ciclone per le sue nuove policy sull’uso dei dati per l’addestramento delle sue AI. Ѐ un tema molto controverso. Tutte le aziende tech del mondo cercano voracemente dati e l’unico modo per ottenerli sembra essere forzare la mano sul consenso degli utenti. Ma questi ultimi sono sempre più sensibilizzati sul tema e sempre meno disponibili a regalare il proprio materiale alle big tech.Dove risiede l’utilità per le aziende nel creare applicazioni di intelligenza artificiale se il prezzo da pagare è quello di perdere la fiducia degli utenti? Un dilemma che sarà al centro del dibattito nell’immediato futuro.
ChatGPT, Dall-E, Midjourney: il (difficile) rapporto tra intelligenza artificiale e copyright - AI newsUna Cuvée dai migliori vitigni di montagna – Il Tempo Città virtuali e proprietà nel metaverso - AI newsGoogle Morals e il disimpegno - Il PostIl deciso discorso di Kamala Harris per un cessate il fuoco nella Striscia di Gaza - Il Post