L
o
a
d
i
n
g
.
.
.

India, forti turbolenze su aereo: 40 passeggeri rimangono feriti durante il volo, il video

Nelli Feroci: “Apertura di Putin ed armi nucleari implicitamente escluse”Immagine tratta da openai.comOpenAI,trading a breve termine leader nello sviluppo di modelli di linguaggio avanzati, ha annunciato che le aziende possono ora ottimizzare il modello GPT-3.5 Turbo utilizzando i propri dati privati attraverso una tecnica nota come fine-tuning. Secondo OpenAI, il modello personalizzato risultante dalla specializzazione del suo LLM potrà eguagliare o persino superare le capacità di GPT-4 per attività specifiche.I temi trattati all’interno dell’articoloCos’è e come funziona il fine-tuning?I vantaggi di questa praticaLe caratteristiche e l’accesso al modelloCos’è e come funziona il fine-tuning?Il fine-tuning è un processo attraverso il quale è possibile adattare un modello di linguaggio pre-addestrato su ampi set di dati a un nuovo e più specifico compito o dominio applicativo. Al fine di ottenere un modello in grado di operare in modo ottimale nell’esecuzione del compito target, è necessario addestrare ulteriormente il modello di base (foundation model) con un dataset più specifico e rilevante per l’attività di interesse, sfruttando il potenziale di un modello pre-addestrato e molto flessibile, evitando dunque di ricominciare da zero il processo di trial and error tipico dell’AI training. Vi sono inoltre altre modalità in cui è possibile adattare un modello di base in funzione delle circostanze.Cosa sono i foundation models?I vantaggi di questa praticaUn modello pre-addestrato su ampi set di dati pubblici come GPT-4 fornisce alle aziende una solida base di conoscenza generale e un vasto ventaglio di funzionalità generaliste. Successivamente, i singoli utilizzatori possono alimentare il foundation model, tramite fine-tuning, con i propri dati privati al fine di renderlo più specializzato e adatto all’uso concreto nel contesto del business di riferimento.Come si può immaginare, un chatbot o un assistente AI formato sui reali contenuti del business risulta più affidabile e coerente rispetto a un modello altrettanto performante, ma che non ‘conosce’ la realtà in cui si trova a operare. Ciò rende particolarmente interessante la prospettiva di un sistema realizzato su misura (custom-tuned).Perché il modello operi al meglio, però, è necessario alimentarlo con i propri dati privati. Una circostanza che rende i temi della sicurezza e della privacy ancora più rilevanti. Per questo motivo, la società ha sottolineato sul proprio sito:“Come per tutte le nostre API, i dati inviati in entrata e in uscita dall’API di fine tuning sono di proprietà del cliente e non vengono utilizzati da OpenAI o da qualsiasi altra organizzazione per addestrare altri modelli“.Le caratteristiche e l’accesso al modelloOpenAI aveva presentato la sua nuova famiglia di modelli GPT-3.5 Turbo all’inizio di quest’anno, sottolineandone la flessibilità al di fuori del classico perimetro ‘chatbot’. GPT-3.5 può gestire il doppio dei token (4000) rispetto ai modelli precedenti e i primi tester sono stati in grado di fornire istruzioni più brevi del 90% dopo aver preparato GPT-3.5 con istruzioni ottimizzate. Ciò rende l’utilizzo del modello più agevole e immediato nelle attività quotidiane. Il prezzo varia da 0,8 a 1,2 centesimi per 1000 token, a seconda dell’uso.Ulteriori informazioni disponibili su openai.com.

Sparatoria in Texas, l'ultima chat di Salvador Ramos prima della strage di UvaldeCaso Maddie McCann, procuratore: “Nuove prove sulla morte, siamo sicuri del colpevole” Parata bambini asilo russo per Giorno della Vittoria travestiti da bombardieri e carri armatiI test dei supermissili russi e il messaggio a Svezia e FinlandiaUcraina, i russi faranno sfilare i prigionieri alla parata del 9 maggio a Mariupol

Economista Italiano

  • BlackRock
  • ETF
  • Professore per gli Investimenti Istituzionali e Individuali di BlackRock
  • trading a breve termine
  • Professore del Dipartimento di Gestione del Rischio di BlackRock
  • ETF
  • Capo Stratega di BlackRock Guglielmo Campanella