Se un tempo l’intelligenza artificiale (AI) era confinata al regno della fantascienza, oggi è sempre più presente nella nostra vita quotidiana. Ricercatori e scienziati hanno dedicato anni allo sviluppo di modelli di apprendimento profondo e automatico che consentano alle macchine di avvicinarsi sempre più al ragionamento e alle abilità cognitive umane. In questo contesto, un recente studio ha portato alla luce un passo avanti significativo con la creazione di Orca, un modello con 13 miliardi di parametri che imita il processo decisionale dei grandi modelli di base per l’intelligenza artificiale (LFM, Large Foundation Models). Nello specifico, la ricerca si è concentrata sull’imitation learning, ovvero l’approccio che permette a modelli più piccoli di emulare le capacità dei grandi modelli, come GPT-4. Tuttavia, i ricercatori si sono imbattuti in una serie di sfide, tra cui la qualità dei segnali di imitazione prodotti dagli LFM, la limitatezza e l’omogeneità dei dati di addestramento e, soprattutto, l’assenza di una valutazione rigorosa che portava a sovrastimare le competenze dei modelli più piccoli. Quest’ultimi, infatti, riuscivano ad acquisire lo stile, ma non il ragionamento sottostante dei modelli più avanzati.
Per affrontare questi problemi, i ricercatori hanno sviluppato Orca, un modello di intelligenza artificiale che imita il ragionamento dei grandi modelli LFM, superando le precedenti limitazioni e mostrando un miglioramento sostanziale delle prestazioni. Per raggiungere tale obiettivo, Orca è stato progettato per “apprendere” da GPT-4, ricevendo segnali di addestramento ricchi ed efficaci e integrando istruzioni complesse e spiegazioni dettagliate sull’elaborazione del ragionamento.
Per promuovere questo tipo di apprendimento progressivo, il team di ricerca si è avvalso di un vasto insieme di dati di imitazione accuratamente selezionati e diversificati. Ne è nato un modello che supera di gran lunga i predecessori - Orca ha mostrato un progresso del 100% rispetto a Vicuna-13B, un altro modello di intelligenza artificiale precedentemente all’avanguardia, in test avanzati come Big-Bench Hard (BBH) e del 42% nell’AGIEval, rivelando un ragionamento analogo all’uomo.
Ma i risultati non si fermano qui: Orca raggiunge una performance comparabile a ChatGPT, un altro modello altamente avanzato, e si avvicina (con una differenza di soli 4 punti) alle prestazioni offerte da GPT-4, il modello di riferimento. Anche in esami di natura accademica e professionale come SAT, LSAT, GRE e GMAT, Orca dimostra un alto livello di competenza, sia in situazioni di valutazione zero-shot, cioè senza una preparazione o addestramento specifico, sia confrontandosi con GPT–4.
Questi risultati evidenziano l’importanza delle spiegazioni dettagliate e del ragionamento passo dopo passo nella formazione dei modelli di intelligenza artificiale. Orca dimostra che “imparare” da esempi umani o da modelli avanzati come GPT-4 può portare a miglioramenti significativi nelle competenze e nella qualità dell’intelligenza artificiale.
L’eredità di Orca è quella di gettare le basi per un futuro in cui l’intelligenza artificiale potrà affiancare più efficacemente l’uomo nelle attività quotidiane, aiutandoci a districarci nella complessità del mondo moderno. Se gli obiettivi di questa ricerca verranno perseguiti con determinazione e rigore, potremo presto sperimentare un’intelligenza artificiale che metterà a disposizione le sue risorse cognitive in modo sempre più efficiente e accurato, consentendoci di migliorare la qualità della nostra vita e di quella delle generazioni a venire.
Cosa ne pensi?
Mostra l'area commenti