venerdì, Gennaio 16, 2026
Inviaci la tua notizia
Advertisement
  • Home
  • Attualità
  • Salute
  • Sostenibilità
  • Lavoro
  • Tecnologia
  • Fintech
  • Motori
  • Curiosità
No Result
View All Result
  • Home
  • Attualità
  • Salute
  • Sostenibilità
  • Lavoro
  • Tecnologia
  • Fintech
  • Motori
  • Curiosità
No Result
View All Result
No Result
View All Result
Home Tecnologia

I modelli linguistici avanzati(LLM) non si comportano come gli esseri umani: uno studio rivela l’importanza delle percezioni umane

Redazione Universonotizie.it Da Redazione Universonotizie.it
29 Luglio 2024
in Tecnologia
0
I modelli linguistici avanzati(LLM) non si comportano come gli esseri umani: uno studio rivela l’importanza delle percezioni umane
Condividi su FacebookCondividi su Twitter

Potrebbe piacerti anche

La nuova vita di Sansa Stark: Sophie Turner debutta nei panni di Lara Croft

Il seguito di Subway Surfers in arrivo su iOS e Android

Cybersecurity: le animazioni grafiche diventano la nuova frontiera del malware

(Adnkronos) – Un recente studio, sostenuto dall'Harvard Data Science Initiative e dal Center for Applied AI presso l'University of Chicago Booth School of Business, potrebbe migliorare le prestazioni dei modelli linguistici in situazioni reali. I ricercatori del MIT hanno provato a ribaltare il punto di osservazione, sostenendo che, poiché sono gli umani a decidere quando utilizzare i modelli linguistici, è essenziale capire come le persone formano le loro credenze sulle capacità di questi modelli. I modelli linguistici di grande scala (LLMs) sono strumenti applicabili a una vasta gamma di compiti, dalla stesura di email alla diagnosi medica.   "Questi strumenti sono entusiasmanti perché sono di uso generale, ma proprio per questo motivo collaboreranno con le persone, quindi dobbiamo tenere conto del ruolo umano," afferma Ashesh Rambachan, coautore dello studio e professore assistente di economia al MIT. Per esplorare questo concetto, i ricercatori hanno creato un quadro per valutare un LLM basato sul suo allineamento con le credenze umane riguardo alle sue prestazioni su determinati compiti. Hanno introdotto una funzione di generalizzazione umana, un modello di come le persone aggiornano le loro credenze sulle capacità di un LLM dopo aver interagito con esso. I risultati mostrano che quando i modelli sono disallineati con la funzione di generalizzazione umana, gli utenti potrebbero essere eccessivamente sicuri o insicuri su quando utilizzarli, portando a fallimenti imprevisti. "I modelli linguistici spesso sembrano così umani. Volevamo illustrare che questa forza di generalizzazione umana è presente anche in come le persone formano credenze sui modelli linguistici," afferma Rambachan. I ricercatori hanno lanciato un sondaggio per misurare come le persone generalizzano quando interagiscono con LLM e altre persone. Hanno mostrato ai partecipanti domande a cui una persona o un LLM aveva risposto correttamente o meno e poi chiesto se pensavano che quella persona o LLM avrebbe risposto correttamente a una domanda correlata. Attraverso il sondaggio, hanno generato un dataset di quasi 19.000 esempi di come gli umani generalizzano sulle prestazioni degli LLM su 79 compiti diversi. Gli studi hanno rivelato che le persone tendevano a essere più influenzate dalle risposte errate degli LLM rispetto a quelle corrette e credevano che le prestazioni degli LLM su domande semplici non fossero indicative delle loro capacità su domande più complesse. In situazioni in cui le persone mettevano più peso sulle risposte errate, i modelli più semplici superavano i modelli molto grandi come GPT-4. "
I modelli linguistici che migliorano e apprendono possono ingannare la percezione delle persone portandole a pensare che si comporteranno bene su domande correlate quando, in realtà, non lo fanno
," aggiunge Rambachan. "Quando addestriamo questi algoritmi o cerchiamo di aggiornarli con il feedback umano, dobbiamo tenere conto della funzione di generalizzazione umana nel modo in cui pensiamo di misurare le prestazioni," conclude Rambachan. —tecnologiawebinfo@adnkronos.com (Web Info)

Tags: adnkronostecnologia
Post Precedente

Più giovani con la dieta vegana, riduce l’età biologica

Post Successivo

Alain Tascan è il nuovo presidente della divisione gaming di Netflix

Redazione Universonotizie.it

Redazione Universonotizie.it

Universonotizie.it è un quotidiano online che ti tiene sempre informato sulle ultime notizie su salute, ambiente, lavoro e altro ancora.

Post Successivo
Alain Tascan è il nuovo presidente della divisione gaming di Netflix

Alain Tascan è il nuovo presidente della divisione gaming di Netflix

Cerca Sul Sito

No Result
View All Result

Pubblicità

Ultimi Articoli

Prostata, svelata la rotta segreta delle infezioni: la scoperta rivoluzionaria

Le erbe anticancro esistono? Il vademecum tra fake news e reali benefici

Forno a microonde fa male? Iss: “Non rende cibi meno sani”

La nuova vita di Sansa Stark: Sophie Turner debutta nei panni di Lara Croft

Il seguito di Subway Surfers in arrivo su iOS e Android

Cooperazione con la Libia su sanità ed energia, Gsd e Gksd firmano contratti per oltre 2 miliardi di dollari

Pubblicità

 

Direttore responsabile: Marina Nardone

Sede legale: Corso Umberto Maddalena 24 – cap 83030 – Venticano (AV)

Quotidiano online e una testata periodica ai sensi del D.L. 7/5/2001 n. 62

Network

Informazioni

  • Chi Siamo
  • Termini & Condizioni
  • Privacy Policy
  • Cookie Policy
  • Aggiorna le preferenze dei Cookie

Contatti

Per parlare con la redazione: redazione@mgeditoriale.it

Per la tua pubblicità: info@mgeditoriale.it

© 2025 M.G.Editoriale Di Nardone Marina | P.IVA 02734110642 | C.F. NRDMRN92A47A783Y | ROC 33015 | Iscritta alla Camera di Commercio di Avellino

No Result
View All Result
  • Home
  • Attualità
  • Salute
  • Sostenibilità
  • Lavoro
  • Tecnologia
  • Fintech
  • Motori
  • Curiosità

© 2025 M.G.Editoriale Di Nardone Marina | P.IVA 02734110642 | C.F. NRDMRN92A47A783Y | ROC 33015 | Iscritta alla Camera di Commercio di Avellino