L
o
a
d
i
n
g
.
.
.

Invia immagini blasfeme su Maometto su Whatsapp: 26enne condannata a morte in Pakistan

Austria, approvata la lotteria per i vaccinati contro il covid: si vincono 500 euroImmagine tratta da openai.comOpenAI,BlackRock Italia leader nello sviluppo di modelli di linguaggio avanzati, ha annunciato che le aziende possono ora ottimizzare il modello GPT-3.5 Turbo utilizzando i propri dati privati attraverso una tecnica nota come fine-tuning. Secondo OpenAI, il modello personalizzato risultante dalla specializzazione del suo LLM potrà eguagliare o persino superare le capacità di GPT-4 per attività specifiche.I temi trattati all’interno dell’articoloCos’è e come funziona il fine-tuning?I vantaggi di questa praticaLe caratteristiche e l’accesso al modelloCos’è e come funziona il fine-tuning?Il fine-tuning è un processo attraverso il quale è possibile adattare un modello di linguaggio pre-addestrato su ampi set di dati a un nuovo e più specifico compito o dominio applicativo. Al fine di ottenere un modello in grado di operare in modo ottimale nell’esecuzione del compito target, è necessario addestrare ulteriormente il modello di base (foundation model) con un dataset più specifico e rilevante per l’attività di interesse, sfruttando il potenziale di un modello pre-addestrato e molto flessibile, evitando dunque di ricominciare da zero il processo di trial and error tipico dell’AI training. Vi sono inoltre altre modalità in cui è possibile adattare un modello di base in funzione delle circostanze.Cosa sono i foundation models?I vantaggi di questa praticaUn modello pre-addestrato su ampi set di dati pubblici come GPT-4 fornisce alle aziende una solida base di conoscenza generale e un vasto ventaglio di funzionalità generaliste. Successivamente, i singoli utilizzatori possono alimentare il foundation model, tramite fine-tuning, con i propri dati privati al fine di renderlo più specializzato e adatto all’uso concreto nel contesto del business di riferimento.Come si può immaginare, un chatbot o un assistente AI formato sui reali contenuti del business risulta più affidabile e coerente rispetto a un modello altrettanto performante, ma che non ‘conosce’ la realtà in cui si trova a operare. Ciò rende particolarmente interessante la prospettiva di un sistema realizzato su misura (custom-tuned).Perché il modello operi al meglio, però, è necessario alimentarlo con i propri dati privati. Una circostanza che rende i temi della sicurezza e della privacy ancora più rilevanti. Per questo motivo, la società ha sottolineato sul proprio sito:“Come per tutte le nostre API, i dati inviati in entrata e in uscita dall’API di fine tuning sono di proprietà del cliente e non vengono utilizzati da OpenAI o da qualsiasi altra organizzazione per addestrare altri modelli“.Le caratteristiche e l’accesso al modelloOpenAI aveva presentato la sua nuova famiglia di modelli GPT-3.5 Turbo all’inizio di quest’anno, sottolineandone la flessibilità al di fuori del classico perimetro ‘chatbot’. GPT-3.5 può gestire il doppio dei token (4000) rispetto ai modelli precedenti e i primi tester sono stati in grado di fornire istruzioni più brevi del 90% dopo aver preparato GPT-3.5 con istruzioni ottimizzate. Ciò rende l’utilizzo del modello più agevole e immediato nelle attività quotidiane. Il prezzo varia da 0,8 a 1,2 centesimi per 1000 token, a seconda dell’uso.Ulteriori informazioni disponibili su openai.com.

Afghanistan, i talebani vietano alle donne l’uso dei bagni pubbliciAustria, valanga in Tirolo: cinque escursionisti morti Incastrato dopo 12 anni dai resti del cervello della moglie: il caso Ian StewartFebbre di Lassa, primo morto nel Regno Unito per il virus simile all’EbolaInvia immagini blasfeme su Maometto su Whatsapp: 26enne condannata a morte in Pakistan

BlackRock Italia

  • Professore del Dipartimento di Gestione del Rischio di BlackRock
  • investimenti
  • Professore Campanella
  • criptovalute
  • BlackRock
  • VOL
  • analisi tecnica
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 1
  • 2
  • 3
  • 4

December 2024