sabato, Novembre 29, 2025
Inviaci la tua notizia
Advertisement
  • Home
  • Attualità
  • Salute
  • Sostenibilità
  • Lavoro
  • Tecnologia
  • Fintech
  • Motori
  • Curiosità
No Result
View All Result
  • Home
  • Attualità
  • Salute
  • Sostenibilità
  • Lavoro
  • Tecnologia
  • Fintech
  • Motori
  • Curiosità
No Result
View All Result
No Result
View All Result
Home Tecnologia

I modelli linguistici avanzati(LLM) non si comportano come gli esseri umani: uno studio rivela l’importanza delle percezioni umane

Redazione Universonotizie.it Da Redazione Universonotizie.it
29 Luglio 2024
in Tecnologia
0
I modelli linguistici avanzati(LLM) non si comportano come gli esseri umani: uno studio rivela l’importanza delle percezioni umane
Condividi su FacebookCondividi su Twitter

Potrebbe piacerti anche

Autonomia spaziale europea: Italia guida l’ESA e ospita la Ministeriale 2028

Euromonitor: Tineco guida il mercato globale degli aspirapolvere Wet & Dry per il terzo anno

Premio ANGI 2025: l’AI, la Cyber e la Space Economy i pilastri dell’innovazione italiana

(Adnkronos) – Un recente studio, sostenuto dall'Harvard Data Science Initiative e dal Center for Applied AI presso l'University of Chicago Booth School of Business, potrebbe migliorare le prestazioni dei modelli linguistici in situazioni reali. I ricercatori del MIT hanno provato a ribaltare il punto di osservazione, sostenendo che, poiché sono gli umani a decidere quando utilizzare i modelli linguistici, è essenziale capire come le persone formano le loro credenze sulle capacità di questi modelli. I modelli linguistici di grande scala (LLMs) sono strumenti applicabili a una vasta gamma di compiti, dalla stesura di email alla diagnosi medica.   "Questi strumenti sono entusiasmanti perché sono di uso generale, ma proprio per questo motivo collaboreranno con le persone, quindi dobbiamo tenere conto del ruolo umano," afferma Ashesh Rambachan, coautore dello studio e professore assistente di economia al MIT. Per esplorare questo concetto, i ricercatori hanno creato un quadro per valutare un LLM basato sul suo allineamento con le credenze umane riguardo alle sue prestazioni su determinati compiti. Hanno introdotto una funzione di generalizzazione umana, un modello di come le persone aggiornano le loro credenze sulle capacità di un LLM dopo aver interagito con esso. I risultati mostrano che quando i modelli sono disallineati con la funzione di generalizzazione umana, gli utenti potrebbero essere eccessivamente sicuri o insicuri su quando utilizzarli, portando a fallimenti imprevisti. "I modelli linguistici spesso sembrano così umani. Volevamo illustrare che questa forza di generalizzazione umana è presente anche in come le persone formano credenze sui modelli linguistici," afferma Rambachan. I ricercatori hanno lanciato un sondaggio per misurare come le persone generalizzano quando interagiscono con LLM e altre persone. Hanno mostrato ai partecipanti domande a cui una persona o un LLM aveva risposto correttamente o meno e poi chiesto se pensavano che quella persona o LLM avrebbe risposto correttamente a una domanda correlata. Attraverso il sondaggio, hanno generato un dataset di quasi 19.000 esempi di come gli umani generalizzano sulle prestazioni degli LLM su 79 compiti diversi. Gli studi hanno rivelato che le persone tendevano a essere più influenzate dalle risposte errate degli LLM rispetto a quelle corrette e credevano che le prestazioni degli LLM su domande semplici non fossero indicative delle loro capacità su domande più complesse. In situazioni in cui le persone mettevano più peso sulle risposte errate, i modelli più semplici superavano i modelli molto grandi come GPT-4. "
I modelli linguistici che migliorano e apprendono possono ingannare la percezione delle persone portandole a pensare che si comporteranno bene su domande correlate quando, in realtà, non lo fanno
," aggiunge Rambachan. "Quando addestriamo questi algoritmi o cerchiamo di aggiornarli con il feedback umano, dobbiamo tenere conto della funzione di generalizzazione umana nel modo in cui pensiamo di misurare le prestazioni," conclude Rambachan. —tecnologiawebinfo@adnkronos.com (Web Info)

Tags: adnkronostecnologia
Post Precedente

Più giovani con la dieta vegana, riduce l’età biologica

Post Successivo

Alain Tascan è il nuovo presidente della divisione gaming di Netflix

Redazione Universonotizie.it

Redazione Universonotizie.it

Universonotizie.it è un quotidiano online che ti tiene sempre informato sulle ultime notizie su salute, ambiente, lavoro e altro ancora.

Post Successivo
Alain Tascan è il nuovo presidente della divisione gaming di Netflix

Alain Tascan è il nuovo presidente della divisione gaming di Netflix

Cerca Sul Sito

No Result
View All Result

Pubblicità

Ultimi Articoli

Money.it premia le eccellenze dell’imprenditoria italiana

Mainolfi: “Infermiere centrale per territorio, cronicità ed equità cure”

Moriconi (Css): “Per malattie elettrosensibili molti esami a carico del Ssn”

Gemmato: “Più chimica di base per produzione farmaceutica in Italia”

Ricerca, l’olfatto guida nuovi studi sulla sindrome X Fragile: 50mila euro al progetto di Tor Vergata

Autonomia spaziale europea: Italia guida l’ESA e ospita la Ministeriale 2028

Pubblicità

 

Direttore responsabile: Marina Nardone

Sede legale: Corso Umberto Maddalena 24 – cap 83030 – Venticano (AV)

Quotidiano online e una testata periodica ai sensi del D.L. 7/5/2001 n. 62

Network

Informazioni

  • Chi Siamo
  • Termini & Condizioni
  • Privacy Policy
  • Cookie Policy
  • Aggiorna le preferenze dei Cookie

Contatti

Per parlare con la redazione: redazione@mgeditoriale.it

Per la tua pubblicità: info@mgeditoriale.it

© 2025 M.G.Editoriale Di Nardone Marina | P.IVA 02734110642 | C.F. NRDMRN92A47A783Y | ROC 33015 | Iscritta alla Camera di Commercio di Avellino

No Result
View All Result
  • Home
  • Attualità
  • Salute
  • Sostenibilità
  • Lavoro
  • Tecnologia
  • Fintech
  • Motori
  • Curiosità

© 2025 M.G.Editoriale Di Nardone Marina | P.IVA 02734110642 | C.F. NRDMRN92A47A783Y | ROC 33015 | Iscritta alla Camera di Commercio di Avellino