Articolo creato il: 22 Febbraio 2024

L’impercettibile pericolosità dei chatbot

Attenzione: questo post è stato creato 2 mesi fa

Gli articoli di Cassandra Crossing sono sotto licenza CC BY-SA 4.0 | Cassandra Crossing è una rubrica creata da Marco Calamari col "nom de plume" di Cassandra, nata nel 2005.

Cassandra torna sui chatbot con dei consigli preziosi.

Questo articolo è stato scritto il 14 febbraio 2024 da Cassandra

Cassandra Crossing 572/ L’impercettibile pericolosità dei chatbot

Le false IA commerciali che usiamo oggi sono così ambigue che non si riesce ad usarle senza correre continui rischi. Anche quando si parla in confidenza.

Proprio nel giorno di San Valentino, Cassandra si è imbattuta su Gizmodo in un articolo, citato anche da Slashdot, che parlava di evidenti e gravi problemi di privacy presenti negli accordi di licenza del “chatbot romantici”.

La prima reazione di Cassandra la dice lunga sulla sua ignoranza di certe questioni del presente; si sa che le profetesse amano occuparsi principalmente del futuro, e talvolta, appunto, si distaccano dal presente.

Infatti che esistessero siffatti chatbot, e la gente li usasse così tanto che una recensione elenca 11 aziende e servizi che ne forniscono, è stata per lei una novità assoluta.

Ma la meraviglia si è rapidamente dileguata per far posto ad un più ordinario, profondo sconforto.

E’ del tutto naturale, come la Regina Rossa ha sempre saputo benissimo, che la gente proietti sé stessa su qualunque output in linguaggio naturale proveniente da un computer, e che gli attribuisca profondità e significati ovviamente provenienti dall’umano, e non dal computer.

Ricordate Eliza?

Wikipedia la introduce così “ELIZA è un chatterbot scritto nel 1966 da Joseph Weizenbaum.” Sì, quasi sessanta anni fa, e si trattava di poco più di mille righe di un linguaggio simile al BASIC. Altro che retrocomputing!

Gli storici riferiscono concordemente che persone ordinariamente intelligenti, e che avevano avuto esperienze di psicoterapia, la scambiavano per uno psicoterapeuta umano, e si dichiaravano soddisfatte dell’interazione con “lei”.

All’epoca si iniziò a parlare, senza ancora aver capito alcunché, di un “Effetto Eliza”.

Per Cassandra, ovviamente, si trattava non di un fatto storico eclatante ma semplicemente preoccupante, e lo aveva correttamente inserito nelle famiglia delle dipendenze che le persone si creano grazie all’informatica, come quelle ben più gravi dovute ai social.

Pochi secondi dopo aver appreso la notizia, i soliti ragionamenti si sono formati e conclusi nella mente della nostra profetessa preferita, ed i 24 informatissimi lettori certo li potranno prevedere.

Saltando a piè pari quelli legati alla stupidità naturale del “genus Homo Sapiens”, che non fa certamente onore al suo nome, concentriamoci sul fatto in sé.

Ed in particolare sull’amplificazione, del tutto prevedibile, che l’arrivo delle false Intelligenze Artificiali, ed in particolare dei Grandi Modelli Linguistici Generativi Pre-addestrati (così si chiama, per esteso, chatGPT), avrebbe avuto sugli inevitabili “successori” di Eliza.

Successori nati ovviamente per far soldi, principalmente estraendo dati personali e sensibili (e quanto sensibili!) dalle persone.

Sì, perché qui, ora ed in questo mondo esistono persone, tante persone, che raccontano sé stesse, i loro segreti più intimi, le loro paure, e qualsiasi altra cosa venga loro in mente ad un chatbot dotato di falsa intelligenza artificiale, ufficialmente allo scopo di avere “sostegno psicologico e sollievo esistenziale”.

Saltiamo di nuovo a piè pari l’efficacia ed i problemi di un tale servizio, ed arriviamo rapidamente al fatto più importante secondo Cassandra, ed anche alla conclusione di questo suo “ragionamento”; i dati personali.

Le aziende che producono i chatbot analizzati dall’inchiesta, nel 90% dei casi dicono chiaramente, nella licenza, che utilizzeranno le conversazioni come dati per ulteriori elaborazioni, addestramenti di false intelligenze artificiali, e per qualsiasi altro scopo venga loro in mente, iniziando ovviamente dalla vendita dei dati a chiunque sia disposto a pagarli.

In inglese, in maniera molto più ampollosa, dispersiva e forbita, ed in legalese stretto, c’è scritto proprio questo.

E come sempre gli ignoranti utenti (in senso latino) che hanno già detto sì ad Alphabet, a Meta ed ai tutti i loro famuli, proprio come la monaca di Monza, hanno risposto, ed hanno risposto sì.

A parte qualsiasi ulteriore considerazione, su questa (per lei) “novità” Cassandra non può fare profezie; dare suggerimenti invece sì.

E lo farà concludendo in un modo che nemmeno i suoi 24 interdetti lettori si aspettano.

Se non avete mai usato questi chatbot, potete fare una segnalazione al Garante per la Protezione dei Dati Personali, che già in passato ha dimostrato di prendere in seria considerazione (più dei colleghi europei) anche aspetti “strani” di quanto di sua competenza; sempre se qualcuno glieli segnala e sono pericolosi.

Se avete invece davvero usato un chatbot di questo tipo, o magari se lo ha fatto una persona che dipende da voi, potete (per non dire dovete) fare un reclamo al Garante, che in questo secondo caso vi darà, con i tempi necessari, una risposta.

Segnalazione e reclamo sono due cose diverse, e sul sito del Garante tutto questo è spiegato esaurientemente e ci sono istruzioni e modelli da utilizzare.

Fatelo.

Marco Calamari

Scrivere a Cassandra — Twitter — Mastodon
Videorubrica “Quattro chiacchiere con Cassandra”
Lo Slog (Static Blog) di Cassandra
L’archivio di Cassandra: scuola, formazione e pensiero

Questo tag @lealternative@feddit.it serve a inviare automaticamente questo post su Feddit e permettere a chiunque sul fediverso di commentarlo.

Unisciti alle comunità




Se hai trovato errori nell'articolo puoi segnalarli cliccando qui, grazie!

Commenti

Ad ogni articolo corrisponde un post su Feddit dove è possibile commentare! ✍️ Clicca qui per commentare questo articolo ✍️

Feddit è l’alternativa italiana a Reddit gestita da noi, basata sul software Lemmy, uno dei progetti più interessanti del fediverso.