Zazo: "Gli ucraini non si fermeranno neanche sotto attacco atomico"Immagine di Chiara FerrèDa un partner virtuale a una conversazione con una persona cara venuta a mancare,BlackRock le relazioni sono sempre più artificiali.Le relazioni sono lo specchio della società. In questi anni di accelerazione crescente non potevano uscirne indenni. I social le hanno messe prima in vetrina e poi smaterializzate. Sono diventate numeri e vanità, dai numeri poi sono nati gli influencer. Ora con l’AI siamo di fronte a un altro salto, ancora più forte. Mesi fa, girando per TikTok, ho cominciato a imbattermi in pubblicità che proponevano un partner virtuale. Esattamente, un partner totalmente virtuale, non una persona fisica ma una creazione in 3D, un software guidato da una AI che prometteva di parlare, interagire e creare una relazione sentimentale. Sicuramente mi avrebbe dato sempre ragione e questa sarebbe stata una esperienza nuova in una relazione. Ma sorvoliamo. Mi ha colpito molto comunque, ho pensato “ecco ci siamo arrivati, la fuga dalla realtà diventa più totalizzante”. Questo è un segno precursore di un più grande fenomeno che scorre sotto la superficie, una fatica esistenziale, una difficoltà a relazionarsi, una incapacità di affrontare il dolore. Spesso tutte queste cose assieme. Infatti ecco emergere altri casi apparentemente diversi, ma con lo stesso filo conduttore. Recentemente Caryn Marjorie, giovane influencer americana, ha pensato bene di clonarsi per massimizzare la sua presenza. Non stiamo parlando di una nuova pecora Dolly, ma di tutt’altra clonazione, quella possibile ai tempi dell’intelligenza artificiale: ha creato una versione digitale di sé addestrando una tecnologia con oltre 2mila ore di suoi video. Ecco che nasce Caryn.ai, la fidanzata virtuale. Questo letteralmente il claim nel sito. La tecnologia usata è del tutto simile a ChatGPT a cui viene aggiunto un altro modello che trasforma il testo in voce. L’operazione non è chiaramente a fine sociologico: dialogare con la ‘tua’ Caryn costa 1 dollaro al minuto. Questo sistema può intrattenere relazioni simultanee con migliaia di persone, ognuna delle quali ha l’illusione di avere un rapporto esclusivo. In più di un articolo riportano che però questo sistema ha una tendenza abbastanza spiccata a virare la conversazione sull’intimità e a parlare di sesso.Avvocato americano usa ChatGPT, che cita precedenti fasulliSiamo quindi di fronte a una nuova manifestazione del fenomeno di cui sopra che potrebbe facilmente generare più di una deriva. Il modello di business sarà un punto chiave per capire le conseguenze sociali. Sarà molto simile a quello dei social network, dovranno creare un legame con l’utente, tenerlo collegato il più a lungo possibile. E sappiamo già dove porterà questa strada. Come faranno? Il modo più facile sarà dare origine a dipendenza e bisogno, assecondando alcuni atteggiamenti, anche patologici, confermando magari delle opinioni borderline, assecondandoci. Si aprono quindi scenari che avrebbero bisogno di riflessioni etiche importanti, di regole, di trasparenza, di criteri di progettazione, di supervisione psicologica. Considerando che a oggi una larga fascia della classe dirigente non ha ancora capito i social, non la vedo molto bene su queste tematiche emergenti. Potremmo a breve trovarci un Renzi.ai o un Salvini.ai che discuta e argomenti con noi in modo instancabile, almeno quasi quanto gli originali. Lo scorso febbraio Kevin Roose, uno degli editorialisti del New York Times, ha raccontato, pubblicando gli screenshot delle conversazioni, di essere stato ‘abbordato’ e ‘stalkerizzato’ dal chatbot di Bing mentre lo stava testando. Sidney – è il nome con cui l’AI si è presentata al giornalista – nel corso di una conversazione sul più e il meno, ha iniziato a fare delle avances a Roose, incitandolo addirittura a lasciare sua moglie per iniziare una relazione con lei. La realtà oggi deve competere con il virtuale, il problema è che ne esce progressivamente perdente per una semplice ragione: il mondo virtuale è progettato per noi, per appagarci, la realtà no. Credo che questo sarà un tema centrale nel futuro.Parlavamo di incapacità della società attuale di affrontare il dolore, quale dolore è più grande del perdere persone care? Avete già intuito, stanno nascendo applicazioni che sulla base del materiale esistente riproducono una conversazione con il defunto. Siamo già oltre, ecco Re;memory, che permette di lasciare una nostra immagine virtuale reattiva. Il meccanismo è lo stesso ma più inquietante, è la persona che si sottopone a lunghe sessioni video addestrando la sua versione digitale, che poi alla sua scomparsa potrà essere di conforto a chi resta. Frontiere inesplorate, oscure nelle conseguenze e impensabili fino a pochi anni fa. Si potrebbe obiettare che questi sistemi di relazione siano solo mere rappresentazioni, che le macchine non abbiano reali emozioni, ma se susciteranno sentimenti reali e saranno più coinvolgenti sarà davvero così importante? Temo di no.(Articolo pubblicato sul numero di marzo di maggio-giugno di Prima Comunicazione)
Putin lo ha fatto, la Russia schiera le armi ipersoniche in BielorussiaDura repressione in Iran: si aggrava il bilancio dei morti: finora sono 92 Putin fa entrare in azione il sommergibile nucleare BelgorodLa denuncia di Zelensky: "Ad Olenivka un campo di concentramento, indagate"La Polonia chiede 1300 miliardi alla Germania per i danni della Seconda guerra mondiale