È nato il forum di Le Alternative: lealternative.forum.Un luogo dove potersi scambiare opinioni, richiedere aiuto e informarsi su privacy, sicurezza e alternative!

Articolo creato il: 2 Novembre 2023

Allucinazioni, Essere o Sembrare

L'ultimo aggiornamento di questo post è di 6 mesi fa

Gli articoli di Cassandra Crossing sono sotto licenza CC BY-SA 4.0 | Cassandra Crossing è una rubrica creata da Marco Calamari col "nom de plume" di Cassandra, nata nel 2005.

Cassandra torna sulle AI.

Questo articolo è stato scritto il 17 ottobre 2023 da Cassandra

Cassandra Crossing 556/ Allucinazioni, Essere o Sembrare

Quanto è sfaccettato il problema delle capacità delle false IA e delle loro “allucinazioni” quando viene discusso nei salotti? E nella filosofia? E nel marketing?

Cassandra, i 24 inscalfibili lettori lo sanno bene, ha scritto in maniera … beh, diciamo in maniera molto critica sui problemi legati all’intelligenza artificiale (che ha battezzato, non a caso, “falsa Intelligenza Artificiale”).

E’ stata particolarmente attenta al linguaggio che viene usato oggi per parlare delle false Intelligenze Artificiali, sottolineandone l’uso distorto quando non volutamente ingannevole.

E’ necessario fare questa operazione anche per il termine usato quando una falsa Intelligenza Artificiale commette errori così marchiani da rivelarne la sostanziale inutilità come “oracolo”.

Il termine è “Allucinazioni, che è perfetto per sostenere la campagna di marketing con cui si tenta di vendere le attuali false Intelligenze Artificiali come strumenti per risolvere problemi.

E’ appena il caso di ricordare che si tratta di sistemi generativi pre-addestrati su grandi quantità di dati, ed in particolare di LLM, cioè di grandi modelli linguistici.

Si tratta di software che, per la loro struttura interna, decompongono l’informazione con cui sono addestrati in “coefficienti statistici” complessi, su cui qui non è possibile addentrarsi.

Una tale architettura però rende tali sistemi capaci unicamente di completare domande, fornite come input, anzi come “prompt” (altro termine coniato ad arte), calcolando risposte concepite come “prosecuzione” della domanda, e generate semplicemente per essere credibili, ma senza nessuna possibilità di fornire risposte esatte.

Questa verifica è alla portata di qualunque utente curioso che fornisca qualche prompt a ChatGPT.

E torniamo alla questione delle Allucinazioni.

Perché questo termine è volutamente errato ed ingannatore? Perché l’avere allucinazioni implica un funzionamento razionale ed una percezione corretta del mondo o del dominio di conoscenza del sistema, in tutti gli altri casi.

E dove manca non solo intelligenza, ma anche il semplice determinismo, non è possibile, anzi è totalmente disonesto parlare di “allucinazioni”, quando invece si tratta manifestazioni particolarmente forti della normale assenza di significato di tutte le risposte, anche quelle “esatte”.

Ma si sa, il marketing è un mestiere senza scrupoli, e la quantità di soldi che viene spesa non solo per costruire ed allenare le false Intelligenze Artificiali, ma anche per promuoverle e venderle, è illimitata.

Non c’è quindi da stupirsi se il linguaggio usato per la comunicazione su questo tema è così estremamente ben fatto e curato da risultare assolutamente ingannevole. Non si tratta quindi di errori di comunicazione, ma di “cortine fumogene” volute.

E’ semplicemente espressione di un cinico marketing portato ai massimi livelli, baby!

E, detto questo, non rimane che da evidenziare nuovamente il problema di fondo che sta creando, queste sì, “Allucinazioni” nel mondo reale; allucinazioni a cui sono soggetti la maggior parte degli attuali utenti delle false Intelligenze Artificiali.

La base di questo processo allucinatorio consiste nel non distinguere l’”Essere” dal “Sembrare”.

E sia chiaro, questo non ad un livello riservato a filosofi ed epistemologi, ma semplicemente a quello di banali utenti del software.

Stai usando un sistema che “è” in grado di risolvere problemi o che “sembra” in grado di risolvere problemi?

Se si perde la distinzione tra queste due categorie, ci si addentra in un ginepraio rispetto a cui la “Selva Oscura” del padre Dante sembra un giardino all’inglese.

L’unica cosa per cui gli attuali modelli linguistici sono adatti è l’unica cosa che sono progettati per fare fare; generare testi accurati e “credibili”. Se si devono riempire pagine su un sito acchiappaclick vanno benissimo, ed infatti vengono già oggi usati estesamente per questo.

Se vengono quindi utilizzati per manipolare testi, per esempio per tradurli o farne un riassunto, funzionano bene.

Ma se doveste volare su un aereo, farvi trasportare da un’auto a guida autonoma, o combattere una battaglia usando robot assassini beh, date retta a Cassandra, meglio evitare quelli progettati e programmati non da uomini ma da modelli linguistici.

Marco Calamari

Scrivere a Cassandra — Twitter — Mastodon
Videorubrica “Quattro chiacchiere con Cassandra”
Lo Slog (Static Blog) di Cassandra
L’archivio di Cassandra: scuola, formazione e pensiero

Unisciti alle comunità




Se hai trovato errori nell'articolo puoi segnalarli cliccando qui, grazie!

Commenti

Ad ogni articolo corrisponde un post su Feddit dove è possibile commentare! ✍️ Clicca qui per commentare questo articolo ✍️

Feddit è l’alternativa italiana a Reddit gestita da noi, basata sul software Lemmy, uno dei progetti più interessanti del fediverso.