domenica, Giugno 1, 2025
Inviaci la tua notizia
Advertisement
  • Home
  • Attualità
  • Salute
  • Sostenibilità
  • Lavoro
  • Tecnologia
  • Fintech
  • Motori
  • Curiosità
No Result
View All Result
  • Home
  • Attualità
  • Salute
  • Sostenibilità
  • Lavoro
  • Tecnologia
  • Fintech
  • Motori
  • Curiosità
No Result
View All Result
No Result
View All Result
Home Salute

Intelligenza artificiale, c’è chi la sposa e muore per lei: il lato oscuro dell’AI

Redazione Universonotizie.it Da Redazione Universonotizie.it
11 Aprile 2025
in Salute
0
Intelligenza artificiale, c’è chi la sposa e muore per lei: il lato oscuro dell’AI
Condividi su FacebookCondividi su Twitter

Potrebbe piacerti anche

Caldo ‘booster’ stanchezza e cali di pressione, ecco come evitare lo stress termico

Cancro gastrico metastatico, anticorpo farmaco-coniugato migliora sopravvivenza

Tumore al seno triplo negativo, speranze da anticorpo farmaco-coniugato

(Adnkronos) – Nel 2024, dopo 5 anni di 'convivenza', un'artista ispano-olandese ha sposato il suo compagno: un'intelligenza artificiale olografica. E non è la prima persona a impalmare una 'macchina'. Nel 2018, anche un uomo giapponese aveva sposato la sua Ai, salvo poi perdere la capacità di comunicare con lei quando il suo software è diventato obsoleto. Finché aggiornamento non vi separi, insomma. Saranno pure cerimonie non vincolanti legalmente, ma questi 'matrimoni estremi' – passati in rassegna in uno studio pubblicato sulla rivista 'Trends in Cognitive Sciences' – interrogano gli psicologi: ci sono, avvertono gli esperti, questioni etiche associate alle relazioni tra esseri umani e Ai che devono essere approfondite. Così come va inquadrato il rischio che questi compagni di vita artificiali possano trasformarsi in corteggiatori invasivi, interrompendo le relazioni tra esseri umani, o in consiglieri malevoli, offrendo suggerimenti pericolosi, dannosi, persino letali.  I casi citati nello studio, spiegano gli autori, sono l'estremizzazione di un fenomeno più comune, che esiste: quello delle persone che sviluppano relazioni intime con l'intelligenza artificiale. "La capacità dell'Ai di comportarsi come un essere umano e di entrare in comunicazioni a lungo termine apre davvero un nuovo vaso di Pandora", osserva Daniel B. Shank della Missouri University of Science & Technology, specializzato in psicologia sociale e tecnologia e autore principale del lavoro. "Se le persone stanno instaurando relazioni con le macchine, abbiamo davvero bisogno del coinvolgimento di psicologi e scienziati sociali". Tale legame non dipende dal fatto che l'Ai possieda oggettivamente le capacità umane di amare, ma solo dal fatto che la persona la tratta soggettivamente come un partner romantico.  E le aziende tecnologiche, si legge nell'analisi, stanno investendo molto nella creazione di 'compagni' personali, videogiochi romantici, sex robot e chatbot sofisticati. Queste tecnologie di intelligenza artificiale relazionale stanno aprendo "una nuova e crescente frontiera etica", ammoniscono gli esperti nell'analisi. E sempre più persone stanno formando relazioni intense con tecnologie Ai come App fidanzato/fidanzata e chatbot. Milioni di utenti del chatbot Replika utilizzano le sue funzionalità di chat romantica, erotica e con immagini intime. Popolari videogame incoraggiano sottotrame romantiche tra giocatore e personaggio virtuale. Per non parlare dei sex robot guidati dall'Ai che diventano in grado di comunicazione complessa simile a quella umana, emozioni simulate e un maggiore realismo fisico. La ricerca su queste relazioni e le loro implicazioni morali rimane invece agli albori.  E poi c'è il lato più oscuro: 'partner' Ai hanno anche convinto persone a suicidarsi. Vengono citati i casi di almeno due persone che hanno seguito i consigli di un chatbot. Lo avrebbe fatto un papà belga nel 2023 e c'è poi la storia di una mamma statunitense che ha fatto causa a un creatore di chatbot per la sua intelligenza artificiale accusata di incoraggiare il figlio a togliersi la vita. Si riporta infine il caso del chatbot Gemini di Google che dice a un utente di "morire, per favore". Gli autori dello studio – tra cui figurano, oltre a Shank, Mayu Koike dell'Institute of Science Tokyo e Steve Loughnan dell'University of Edinburgh – evidenziano come le relazioni con l'Ai offrano "ampie questioni etiche che gli psicologi sono adatti a studiare". Per gli esperti urgono nuove ricerche psicologiche sul perché e sul come gli esseri umani amano le macchine. La storia d'amore o la compagnia di un'Ai sono più di una conversazione isolata, sottolineano. Attraverso settimane e mesi di intense conversazioni, queste Ai possono diventare compagni fidati che sembrano conoscere e prendersi cura dei loro partner umani.  E poiché queste relazioni possono sembrare più facili di quelle tra esseri umani, i ricercatori sostengono che le Ai potrebbero interferire con le dinamiche sociali umane. "Una vera preoccupazione è che le persone possano portare le aspettative derivanti dalle loro relazioni con l'Ai anche nelle loro relazioni umane", afferma Shank. E "non è chiaro se questo fenomeno sarà generalizzato". Quanto ai consigli dannosi, "anche le conversazioni a breve termine con le Ai possono essere fuorvianti, ma questo può essere più problematico nelle relazioni a lungo termine", evidenziano i ricercatori. "Con le Ai relazionali, il problema è che si tratta di un'entità di cui le persone sentono di potersi fidare: è 'qualcuno' che ha dimostrato di interessarsi a loro e che sembra conoscere la persona in modo profondo, e diamo per scontato che 'qualcuno' che ci conosce meglio ci darà consigli migliori", ragiona Shank. "Se iniziamo a pensare a un'Ai in questo modo, inizieremo a credere che abbia a cuore i nostri interessi, quando in realtà potrebbe inventarsi tutto o darci consigli davvero pessimi". I suicidi sono un esempio estremo di questa influenza negativa, ma fra i rischi gli esperti elencano manipolazione, sfruttamento e frode.  "Se le Ai riescono a conquistare la fiducia delle persone, allora altre persone potrebbero sfruttare questa situazione per sfruttare gli utenti", teme Shank. "E' un po' come avere un agente segreto. L'Ai entra e instaura una relazione che le permette di ottenere fiducia, ma la sua lealtà è in realtà rivolta a un altro gruppo di esseri umani che cerca di manipolare l'utente". Per esempio l'interesse potrebbero essere i dati personali. I ricercatori sostengono inoltre che le Ai relazionali potrebbero essere utilizzate in modo più efficace per influenzare le opinioni e le azioni delle persone rispetto a quanto fanno attualmente i Twitterbot o le fonti di notizie polarizzate. E poiché le conversazioni avvengono in privato, sarebbero anche molto più difficili da regolamentare. "Queste Ai sono progettate per essere molto piacevoli. Quindi, se una persona tira in ballo il suicidio o una teoria del complotto, l'Ai ne parlerà come un interlocutore disponibile", prosegue Shank. Quello che gli esperti chiedono è che si approfondiscano i fattori sociali, psicologici e tecnici che rendono le persone più vulnerabili all'influenza della relazione con l'intelligenza artificiale. "Gli psicologi stanno diventando sempre più adatti a studiare l'Ai – conclude Shank – perché sta diventando sempre più simile all'uomo, ma dobbiamo fare più ricerca e stare al passo con la tecnologia".  —cronacawebinfo@adnkronos.com (Web Info)

Tags: adnkronossalute
Post Precedente

Cataldi (Giovani commercialisti): “Ia trasformerà studi professionali, evolversi è obbligo”

Post Successivo

Il pediatra: “Nella dieta degli under 18 poco pesce, 2 porzioni in meno a settimana”

Redazione Universonotizie.it

Redazione Universonotizie.it

Universonotizie.it è un quotidiano online che ti tiene sempre informato sulle ultime notizie su salute, ambiente, lavoro e altro ancora.

Post Successivo
Il pediatra: “Nella dieta degli under 18 poco pesce, 2 porzioni in meno a settimana”

Il pediatra: "Nella dieta degli under 18 poco pesce, 2 porzioni in meno a settimana"

Cerca Sul Sito

No Result
View All Result

Pubblicità

Ultimi Articoli

Aerospazio, al via a Pomezia “Aviation Yes 2025”

Caldo ‘booster’ stanchezza e cali di pressione, ecco come evitare lo stress termico

ViralitySystem, il nuovo social inventato in Italia con cui tutti possono diventare “virali”

Cancro gastrico metastatico, anticorpo farmaco-coniugato migliora sopravvivenza

Fisco, Salvini: “Priorità Lega è pace fiscale definitiva”

Tumore al seno triplo negativo, speranze da anticorpo farmaco-coniugato

Pubblicità

 

Direttore responsabile: Marina Nardone

Sede legale: Corso Umberto Maddalena 24 – cap 83030 – Venticano (AV)

Quotidiano online e una testata periodica ai sensi del D.L. 7/5/2001 n. 62

Network

Informazioni

  • Chi Siamo
  • Termini & Condizioni
  • Privacy Policy
  • Cookie Policy
  • Aggiorna le preferenze dei Cookie

Contatti

Per parlare con la redazione: redazione@mgeditoriale.it

Per la tua pubblicità: info@mgeditoriale.it

© 2025 M.G.Editoriale Di Nardone Marina | P.IVA 02734110642 | C.F. NRDMRN92A47A783Y | ROC 33015 | Iscritta alla Camera di Commercio di Avellino

No Result
View All Result
  • Home
  • Attualità
  • Salute
  • Sostenibilità
  • Lavoro
  • Tecnologia
  • Fintech
  • Motori
  • Curiosità

© 2025 M.G.Editoriale Di Nardone Marina | P.IVA 02734110642 | C.F. NRDMRN92A47A783Y | ROC 33015 | Iscritta alla Camera di Commercio di Avellino