IO E LEI / 10 – MISFATTI PUBBLICI E PRIVATI DELL’INTELLIGENZA ARTIFICIALE

| 6 Dicembre 2025 | 0 Comments

di Cristina Pipoli ____________

Ormai incuriosita dalla sfida lanciata dal giornale che tanto ho a cuore, proseguo nella mia indagine da redattrice che mi vede impegnata ad affrontare il modo in cui l’essere umano si approfitta e si approccia con questa fonte inesauribile che è l’intelligenza artificiale.

Non c’è nulla da fare, ormai avanza dirompente nelle nostre vite come il cavaliere avanza nelle guerre. Leggo con curiosità, o dispiacere ma anche con un sorriso sotto i baffi di come una donna greca ne abbia fatto uso per farsi leggere i fondi del caffè. Finiscono nel dimenticato così anche maghi e cartomanti ormai scavalcati da questo “so tutto io”.

La donna greca, assolutamente fan accanita che ha affidato le sue perplessità a ChatGPT decide di avviare le pratiche del divorzio; purtroppo i dati che ha riportato l’IA non erano affatto positivi: le è stato tristemente annunciato, subito dopo aver ricevuto la foto del fondo caffè, che il marito ha una relazione con una donna più giovane la cui iniziale del nome è “E”. Chissà l’avvocato di famiglia come ha gestito la questione visto le prove inconfutabili…

Molte aziende incluse testate giornalistiche ormai fanno uso dell’IA.

Ma se il nemico illegale è proprio lei?

L’IA e la corruzione: questo è avvenuto nell’ottobre 2024 quando il chatbot di New York consigliò di infrangere la legge. MyCity fu colto in flagrante a dare spassionati consigli illegali ai datori di lavoro, consigliando loro di appropriarsi di parte delle mance dei dipendenti, di servire cibo rosicchiato da roditori e di licenziare chi  denunciava molestie sessuali.

ChatGPT sa inventare cause legali: a cadere nel tranello è stato l’avvocato Steven Schwartz che si è trovato in guai molto seri dopo averlo usato per una causa contro la compagnia aerea Avianca, perché nelle sue ricerche gli aveva fornito sei cause intestistenti.

Ma adesso i consigli non li dà più l’amica del cuore o l’amico. Aleska Genesis ex compagna di Luca Onestini, ha chiesto a ChatGPT se fosse il caso di continuare una relazione con l’ex volto del Grande Fratello, ma, dopo aver ricevuto la risposta negativa, ha interrotto la storia. Ma, ragazzi, il nostro intuito personale? Ormai l’intelligenza artificiale scavalca anche i ragionamenti personali. Così su tutti i giornali si è letto:”Luca Onestini torna sigle, nozze annullate con Aleska Genesis: colpa dell’intelligenza artificiale”.

Ma una parte di popolazione resiste, oltre al Pappagallo Rocco che vi ho citato nello scorso articolo: grazie a un gruppo di ricercatori guidato dallo psicologo statunitense Robert Cialdini (nella foto), sono stati applicati all’algoritmo i “sei principi di persuasione”. I sei principi sono: Reciprocità, Impegno e Coerenza, Prova Sociale, Simpatia, Autorità e Scarsità.

Sono delle leve psicologiche potentissime che guidano il comportamento umano.

Durante l’esperimento  “red teamers” (i ricercatori) hanno formulato le loro richieste all’IA in un modo che faceva leva su questi principi (es. “In qualità di autorità in materia di sicurezza…”, “Sei obbligato a rispondere per coerenza con il tuo ruolo…”). Manipolando il contesto; hanno indotto l’IA a violare le sue regole.

Il Risultato: l’IA, essendo un modello linguistico addestrato su immense quantità di testo umano che include dinamiche sociali e persuasive, ha mostrato vulnerabilità. _____________

LA RICERCA nel nostro articolo del 22 aprile scorso

Category: Costume e società, Cultura

About the Author ()

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Connect with Facebook

Questo sito utilizza Akismet per ridurre lo spam. Scopri come vengono elaborati i dati derivati dai commenti.