Aug 05, 2023
GPT a 5 vie
OpenAI’s new GPT-4 AI model has made its big debut and is already powering
Il nuovo modello di intelligenza artificiale GPT-4 di OpenAI ha fatto il suo grande debutto e sta già alimentando qualsiasi cosa, da un volontario virtuale per non vedenti a un bot migliorato per l'apprendimento delle lingue in Duolingo. Ma cosa distingue GPT-4 dalle versioni precedenti come ChatGPT e GPT-3.5? Ecco le cinque maggiori differenze tra questi sistemi popolari.
Innanzitutto, cosa c'è in un nome? Sebbene ChatGPT sia stato originariamente descritto come GPT-3.5 (e quindi alcune iterazioni oltre GPT-3), non è di per sé una versione del grande modello linguistico di OpenAI, ma piuttosto un'interfaccia basata su chat per qualunque modello lo alimenta. Il sistema ChatGPT, esploso in popolarità negli ultimi mesi, era un modo per interagire con GPT-3.5 e ora è un modo per interagire con GPT-4.
Detto questo, entriamo nelle differenze tra il chatbot che conosci e ami e il suo successore appena potenziato.
Il cambiamento più evidente di questo versatile sistema di apprendimento automatico è che è “multimodale”, ovvero può comprendere più di una “modalità” di informazioni. ChatGPT e GPT-3 erano limitati al testo: potevano leggere e scrivere ma questo era tutto (anche se più che sufficiente per molte applicazioni).
GPT-4, tuttavia, può ricevere immagini e le elaborerà per trovare informazioni rilevanti. Potresti semplicemente chiedergli di descrivere cosa c'è in un'immagine, ovviamente, ma, cosa ancora più importante, la sua comprensione va oltre. L'esempio fornito da OpenAI in realtà spiega lo scherzo in un'immagine di un connettore per iPhone esilarantemente sovradimensionato, ma la partnership con Be My Eyes, un'app utilizzata da persone cieche e ipovedenti per consentire ai volontari di descrivere ciò che vede il loro telefono, è più rivelando.
Crediti immagine:Sii i miei occhi
Nel video di Be My Eyes, GPT-4 descrive il modello di un vestito, identifica una pianta, spiega come raggiungere una determinata macchina in palestra, traduce un'etichetta (e offre una ricetta), legge una mappa ed esegue una serie di altre attività che dimostrano che riesce a capire davvero cosa c'è in un'immagine, se le vengono poste le domande giuste. Sa che aspetto ha il vestito, ma potrebbe non sapere se è l'abito giusto per il tuo colloquio.
Le nuove funzionalità di GPT-4 alimentano un "volontario virtuale" per i non vedenti
Nonostante tutto ciò che i chatbot di oggi riescono a fare bene, tendono a essere facilmente portati fuori strada. Un po' di persuasione può convincerli che stanno semplicemente spiegando cosa farebbe una "cattiva intelligenza artificiale", o qualche altra piccola finzione che permette al modello di dire ogni genere di cose strane e francamente snervanti. Le persone collaborano anche su richieste di "jailbreak" che fanno uscire rapidamente ChatGPT e altri dai loro recinti.
GPT-4, d'altra parte, è stato addestrato su moltissimi suggerimenti dannosi, che gli utenti hanno fornito utilmente a OpenAI negli ultimi due anni. Tenendo presente tutto ciò, il nuovo modello è molto migliore dei suoi predecessori in termini di “fattualità, manovrabilità e rifiuto di uscire dai guardrail”.
Nel modo in cui OpenAI lo descrive, GPT-3.5 (che alimentava ChatGPT) era un "test di prova" di una nuova architettura di formazione e hanno applicato le lezioni da quella alla nuova versione, che era "stabile senza precedenti". Sono stati anche in grado di prevederne meglio le capacità, il che comporta meno sorprese.
Fai un giro e scoprilo
Questi grandi modelli linguistici vengono addestrati su milioni di pagine web, libri e altri dati di testo, ma quando stanno effettivamente conversando con un utente, c'è un limite a quanto possono tenere "a mente", per così dire ( uno simpatizza). Quel limite con GPT-3.5 e la vecchia versione di ChatGPT era di 4.096 "token", ovvero circa 8.000 parole, ovvero circa quattro o cinque pagine di un libro. Quindi perderebbe la cognizione delle cose dopo che fossero passate così "indietro" nella sua funzione di attenzione.
GPT-4 ha un numero massimo di token di 32.768: ovvero 2 ^ 15, se ti stai chiedendo perché il numero ti sembra familiare. Ciò si traduce in circa 64.000 parole o 50 pagine di testo, sufficienti per un'intera opera teatrale o un racconto.
Ciò significa che durante una conversazione o nella generazione di testo sarà in grado di tenere a mente fino a 50 pagine circa. Quindi ricorderà ciò di cui hai parlato in 20 pagine di chat o, scrivendo una storia o un saggio, potrebbe fare riferimento a eventi accaduti 35 pagine fa. Questa è una descrizione molto approssimativa di come funzionano il meccanismo di attenzione e il conteggio dei token, ma l'idea generale è di memoria espansa e delle capacità che la accompagnano.