Articolo creato il: 12 Gennaio 2023

False Intelligenze Artificiali

Attenzione: questo post è stato creato 1 anno fa

Gli articoli di Cassandra Crossing sono sotto licenza CC BY-SA 4.0 | Cassandra Crossing è una rubrica creata da Marco Calamari col "nom de plume" di Cassandra, nata nel 2005.

Vista la produzione recente di Cassandra sull’Intelligenza Artificiale abbiamo deciso di riunire in un unico articolo tutte le ultime riflessioni su questo argomento. Due articoli erano già stati pubblicati e ve li linkiamo qui sotto, gli ultimi due li potete trovare qui di seguito.

Questo articolo è stato scritto il 8 gennaio 2023 da Cassandra

Cassandra Crossing 527/ Intelligenza Artificiale: il Potere

Cosa succederà quando le attuali “Intelligenze Artificiali” saranno impiegate su larga scala?

D’accordo, d’accordo, Cassandra sa perfettamente che i suoi 24 informatissimi lettori hanno letto la precedente puntata, in cui viene sottolineato con forza che il vero pericolo dei software chiamati col nome di “Intelligenze Artificiali” è l’eccezionale efficacia di questo nome come strumento di distruzione intellettuale di massa.

Ma riassumendone le conclusioni, in buona sostanza Cassandra sottolinea come nessuna delle “Intelligenze Artificiali” attualmente esistenti od in sviluppo sia in grado di “comprendere” i problemi che gli vengono sottoposti e di “dedurre” alcunché a riguardo. Sono solo strumenti statistici avanzati, nutriti dalla potenza di calcolo di interi datacenter, fino a diventare enormi mostri di statistica cancerosa. Ma sono incapaci di apprendere, di conoscere, di dedurre. Non sono quindi, a nessun effetto, “Intelligenze”.

Sono semplicemente software in grado, tra l’altro, di fornire risposte “apparentemente” e “probabilmente” giuste, senza nessuna garanzia di esattezza e senza essere in grado di spiegare per quali ragioni hanno dato una certa risposta ad una certa domanda. Sono in grado di produrre testi, articoli e pubblicazioni “verosimili”, ma senza nessuna possibilità che contengano nuova conoscenza o di contenerne vecchia ma certamente esatta.

Ma cosa succede nella mente degli uomini quando, debitamente distorte e potenziale, nelle notizie apprese da qualsiasi tipo di media si continua a ripetere “Intelligenze Artificiali”? Quando qualsiasi servizio o prodotto informatico od oggetto informatico viene pubblicizzato come basato sull’“Intelligenza Artificiale”.

Succede la catastrofe che Cassandra ha già descritto; le persone ascoltano la Parola, il potere magico del Nome si scatena, e si convincono, consciamente ma soprattutto a livello inconscio, che esistano davvero cose come programmi “intelligenti” od oggetti “intelligenti”.

E questo è il nocciolo di questo grave e quasi sempre ignorato problema. Il riassunto della puntata precedente termina qui, e da qui ripartiamo.

Quali conseguenze avrà l’adozione massiccia di software basati su apprendimento massivo non supervisionato di grandissime basi di dati, in pratica su buona parte della cultura e dei dati disponibili al mondo? Cosa succederà quando “modelli linguistici” come GPT-3 e chat-GPT saranno di uso ordinario?

Certo, ci saranno legioni di mezzemaniche e pseudo-redattori di notizie disoccupati, ma questo è un problema noto, che da sempre accade e da sempre viene risolto ad ogni discontinuità tecnologica. I linotipisti ed i letturisti sono stati totalmente rimpiazzati da nuove tecnologie, ma non sono morti di inedia o sulle barricate. Non è questo il problema principale.

Il vero problema (od almeno quello che oggi si riesce a scorgere chiaramente) è la sostituzione di entità ragionanti con entità incapaci di ragionare nella produzione di informazioni, nella analisi di informazioni, nel controllo delle persone.

Partiamo dalla produzione di informazioni. Un articolo, una foto, un filmato “sintetico” prodotto da una cosiddetta “Intelligenza Artificiale” possono essere del tutto convincenti e verosimili, anzi essere per la maggior parte “esatti”, e tuttavia contenere errori a vari livelli, dal facilmente percettibile all’estremamente sottile e non individuabile.

Riduciamo il problema per meglio analizzarlo, e limitiamoci all’informazione scritta. Se avete avuto modo di utilizzare od anche solo di assistere all’utilizzo di un modello linguistico come GPT-3 o chatGPT sarete rimasti meravigliati della qualità delle sue risposte e dei documenti che produce.

Ma di cosa si tratta realmente?

L’incipit relativo a GPT-3 di Wikipedia è azzeccato; “GPT-3 è un modello linguistico autoregressivo che utilizza l’apprendimento profondo per produrre testo simile al linguaggio naturale umano.”

Si tratta quindi di un modello statistico, generato a partire da svariati petabyte di dati provenienti da Internet, che includono anche la maggior parte dei libri esistenti e per non farsi mancare niente anche Wikipedia e Reddit. Una vera indigestione di informazioni, che richiede elaborazioni così enormi che se le possono permettere solo una manciata di organizzazioni al mondo (non solo i GAFAM, magari fossero solo loro!).

Ed alla fine cosa otteniamo? Un software che data una sequenza di parole sa calcolare molto bene la parola successiva, e quella dopo, e quella dopo ancora, e …..

Niente di più. Non conosce niente, non comprende niente, anche se riesce a scrivere articoli che sembrano veri. E’ solo un’Eliza molto più potente, ma altrettanto irrilevante se avete bisogno di psicoanalisi, anche se supera il Test di Turing molto più facilmente di quell’antico codice di 17 pagine.

“Sembrano” è il centro del problema.

Perché quando andiamo dal carrozziere o dal medico, a cui affidiamo i nostri soldi e la nostra vita, andiamo da professionisti che non “sembrano” competenti, ma sappiamo che lo sono; in maniera più o meno completa, ma lo sono.

Perché sono intelligenze autentiche, “Intelligenze Naturali Generali”. Perché comprendono. Perché imparano.

Cassandra non riesce a predire un futuro in cui esistano autentiche “Intelligenze artificiali”, dotate delle stesse caratteristiche. Qui non stiamo parlando di un’”Intelligenza Artificiale Generale”, non stiamo parlando di Skynet. Stiamo parlando di quello che esiste oggi e viene spacciato per “Intelligenza Artificiale”.

Ma per Cassandra è un gioco da ragazzi predire come verranno usati i software che oggi vengono venduti come “Intelligenze Artificiali”. Ripetiamolo, sono false “Intelligenze Artificiali”.

Verranno usati come strumenti di potere, verranno ad esempio usati nei cosiddetti “Oggetti Intelligenti”, che oggi sono una minoranza, ma in dieci anni diventeranno la norma.

Saranno in mano a grandi organizzazioni, non statali e statali, come l’NSA od i GAFAM odierni.

Saranno usate anche come armi, per combattere guerre multidimensionali in cui uno dei nuovi piani di battaglia sarà la cultura dell’umanità.

Non semplice propaganda, ma produzione di informazione verosimile ma falsa, errata, viziata ad arte in modo che sia funzionale ad uno scopo.

Che ne sarà della scienza, dove si avanza per ipotesi e verifiche, dubbi e controlli, e dove solo la condivisione ed il confronto su conoscenze pregresse ed esatte permettono di progredire?

Oggi lo scienziato si nutre di libri e pubblicazioni, e già il fatto che siano costose e difficili da reperire, od addirittura segrete e protette dal copyright, limita moltissimo il lavoro di chi produce davvero cultura.

Quando un domani la base stessa della cultura sarà inquinata da cultura “finta” prodotta da finte “Intelligenze Artificiali” ed usata per scopi di potere, cosa succederà? Perché a questo verranno adibiti questi programmi presentati come abili chatbot o supporti decisionali.

E la cultura stessa, l’Infosfera sarà in grado di sopravvivere ad una “guerra” combattuta con questi mezzi? O sarà distrutta da un fenomeno equivalente alla distruzione dell’Ecosfera provocata dalla tanto temuta guerra termonucleare globale, catastrofe che invece per fortuna non ha avuto luogo?

Concludendo: oggi Cassandra non ha fatto il suo abituale lavoro; queste sono solo utili domande per voi, non profezie. State attenti, ed esercitate il senso critico tutte le volte che sentite la Parola, per evitare che scatti il Sortilegio.

Almeno in questo, cercate di vivere responsabilmente.

Li sentite i risolini che provengono dalla vostra alexa, dal vostro cellulare, dalla vostra domotica, dalla vostra autovettura. Io li avevo sentiti venire da dentro un cavallo di legno, ma nessuno mi diede retta. Sapete bene come è andata a finire.

Stateve accuorti!

Questo articolo è stato scritto il 10 gennaio 2023 da Cassandra

Cassandra Crossing 528/ Intelligenza Artificiale: il Programmatore pericoloso

E’ vero che le Intelligenze Artificiali sono ottimi programmatori?

D’accordo, non ci sono dubbi, l’”Intelligenza Artificiale” funziona bene come autocompletamento per gli editor di scrittura del software.

Certamente molto meglio del tanto strombazzato quanto famigerato T9, in tempi lontani pericoloso incasinatore di SMS.

Ma per l’ecosistema del software, che ormai permea tutta la realtà, la falsa “Intelligenza Artificiale” costituisce un pericolo. Sia per il software che per le persone che ci lavorano.

Cassandra, catastrofica come al solito!” diranno tutti i lettori, escluso, speriamo, i 24 incrollabili.

Bene, per questo motivo il tono della vostra profetessa preferita sarà oggi particolarmente formale, per meglio dimostrare questa sua tesi.

Inizierà quindi con l’esporre quali sono i due effetti perversi che l’applicazione delle tecniche di falsa “Intelligenza Artificiale” allo sviluppo del software genererà; e terminerà enunciando che, come due onde che si rinforzano reciprocamente, questi due fenomeni potranno provocare un vero e proprio tsunami nell’ecosistema del software.

Nei due precedenti articoli di questa serie, “Sortilegio” e “Potere”, è stato enunciato il fatto che le false “Intelligenze Artificiali”, che utilizzano tecniche di “Deep Learning”, pur alimentate con buona parte della cultura del mondo, non possono comprendere niente e non possono imparare niente.

Ora, cosa succederà quando programmatori, già spesso non eccessivamente competenti, stressati da scadenze impossibili e che lavorano su vecchi codici di bassa qualità (insomma la grandissima maggioranza dei programmatori attuali), inizieranno ad usare programmi che autocompletano molte linee di codice in maniera automatica ed in un colpo solo (come Github Copilot), o che addirittura generano codice rispondendo ad una descrizione delle sue funzionalità espressa in linguaggio naturale (come chatGPT)?

Elementare Watson”, accadrà che li utilizzeranno in maniera massiccia, per risparmiare lavoro e rispettare le scadenze.

Ed in effetti, per quanto riguarda la generazione di software, le false “Intelligenze Artificiali” sono più “brave” che in altri campi.

Ma questo è del tutto logico.

Per le false “Intelligenze Artificiali”, scrivere codice è più facile, in quanto si tratta di generare un output in un linguaggio di programmazione, cioè in un linguaggio formalizzato, chiuso e privo di ambiguità. Lasciate perdere qui le finezze di Gödel.

Molto, anzi immensamente più difficile per le false “Intelligenze Artificiali” è raccontare una storia, scrivere un articolo o comporre una poesia. Qui le loro prestazioni, dopo un’iniziale effetto “Wow”, evidenziano immediatamente i loro limiti strutturali.

Ma anche nel campo del software, dove le loro prestazioni sono migliori, i limiti di fondo restano.

Esse hanno digerito, tra altre cose, una buona parte del software mai scritto al mondo, ma non hanno “imparato” a programmare, e non “conoscono” la programmazione. Sanno solo trovare la parola (in questo caso l’istruzione) che meglio si adatta alle precedenti, e sanno solo riprodurre quanto hanno digerito.

Exploit come scrivere in Python un semplice algoritmo espresso (bene) in linguaggio naturale, e rifarlo poi facilmente anche in COBOL, sono le cose più “facili” in cui una falsa “Intelligenza Artificiale” possa cimentarsi. Anche se è accaduto che un programmatore di software vedesse così “riemergere” il suo stesso codice, commenti e nomi di variabili compresi.

Ma cosa possiamo dire della correttezza del software così ottenuto? Della sua sicurezza? Della sua qualità?

Chiunque abbia mai lavorato nell’industria del software sa perfettamente che appena un codice sorgente compila e riesce a girare i casi di prova diventa quasi immediatamente un “prodotto”, e viene rilasciato appena possibile, sempre troppo presto, tanto c’è l’onnipresente “…senza nessuna garanzia, esplicita od implicita …

E saprebbe anche rispondere facilmente alla domanda se i programmatori, useranno oppure no le energie così risparmiate per esercitare il loro senso critico ai massimi livelli, al fine di scovare non solo gli errori introdotti da loro stessi, ma anche quelli inseriti dalle false “Intelligenze Artificiali”.

Questi errori saranno probabilmente ancora più difficili da trovare, in quanto il codice generato da una falsa “Intelligenza Artificiale” sarà per sua stessa natura “molto simile” ad un codice perfetto.

Simile”. Non basta! Il codice è legge, come diceva Lawrence Lessig, e la legge dovrebbe tendere alla perfezione.

Cassandra profetizza invece, senza grande sforzo, che questa aumentata produttività verrà spesa per utilizzare programmatori con competenze minori, e fargli produrre di più, come polli da allevamento.

In fondo in fondo, all’industria del software un buon programmatore, uno che scrive codice di qualità, magari originale, e che cerca di prevenire problemi e correggere specifiche approssimative, ha sempre dato fastidio. Gli era talvolta necessario, ma dava fastidio.

Un tale individuo tende a produrre meno codice, a non rispettare scadenze irrealistiche pur di fare un buon lavoro, magari persino a pretendere di essere pagato bene. Si dice persino che, nei casi più gravi, possa essere sorpreso a lavorare in maniera “etica”.

Non sia mai! Il sogno dell’industria del software è far scomparire questo tipo di programmatori, anzi far scomparire proprio la programmazione stessa.

In questo modo la produzione del software potrà essere affidata a legioni di miti, disciplinate e soprattutto sostituibili “scimmie da tastiera”, che verranno ovviamente pagate in noccioline, e quindi faranno una bellissima figura nei bilanci delle aziende, e ne renderanno felici sia i dirigenti che gli azionisti.

Ma il codice così realizzato funzionerà? Certo che funzionerà, funzionerà come quello prodotto oggi, cioè il minimo indispensabile, tanto ci sono gli utenti che trovano gli errori e che sono sempre pronti a pagare l’assistenza od a comprare la nuova versione. Ed agli errori davvero grossi porranno rimedio le clausole contrattuali e le compagnie assicurative.

E così la globalizzazione della miseria farà un altro passo avanti, le sonde interplanetarie continueranno a fare buchi su pianeti sempre più lontani, le macchine per la radioterapia continueranno a far buchi nella testa dei pazienti, i missili a far buchi negli aerei civili, i robot assassini a riempire di buchi le persone anche quando non dovrebbero.

Business as usual” potranno invece dire, in maniera cinica ma del tutto normale, poche ma molto contente “Intelligenze Naturali”.

Marco Calamari

Scrivere a Cassandra — Twitter — Mastodon
Videorubrica “Quattro chiacchiere con Cassandra”
Lo Slog (Static Blog) di Cassandra
L’archivio di Cassandra: scuola, formazione e pensiero

Unisciti alle comunità




Se hai trovato errori nell'articolo puoi segnalarli cliccando qui, grazie!