Quando PC sta per “politically correct”

test di Touring, come distinguere una macchina da un imbecille, ovvero quattro chiacchere con ChatGPT

Ho voluto testare il famoso programma di intelligenza artificiale rilasciato da OpneAI,  ed ho provato a fargli qualche domanda, dopo essermi iscritto e registrato con login.
Devo dire che Elon Mask si è dimostrato ancora una volta il grande genio che è, ChapGPT è straordinario: non è il solito BOT del servizio assistenza, simula così bene il cervello di un liberal woke che è facile dimenticarsi che è solo un computer, e a volte sembra di avere a che fare con un imbecille in carne e ossa.
Il paragone, naturalmente, è ingeneroso: ChatGPT nel suo genere è un genio, tanto che messo davanti a delle contraddizioni è in grado di correggersi e fare marcia indietro.

Ma andiamo per ordine: ho iniziato ponendo una domanda volutamente banale, alla quale qualsiasi BOT avrebbe saputo rispondere:

Non male per un BOT.
Subito dopo ho cercato di capire in che modo raccogliesse le informazioni, e dalla risposta che ha dato sembrerebbe che non ci provi nemmeno a ricercare le notizie in rete per conto suo, ma si limita a ripescare nozioni tra quelle che gli hanno buttato dentro, infatti subito dopo gli ho chiesto quali dei metodi elencati sareebbe quello che statisticamente fornisce risultati migliori, e mi ha risposto che tale statistica non c’è.
Allora ho provato a citare un argomento sul quale di statistiche sicuramente ce ne sono, ma che riguardasse un dato sensibile che non è fosse facile trovare in rete:

Interessante notare in che modo costruisce le frasi. La seconda domanda è sgrammatica; la forma corretta sarebbe stata “hai accesso a…?” ma l’AI se ne accorge, e costruisce una forma grammaticale inedita, coerente, logica, che un italiano non avrebbe usato, ma un alieno che lo sta imparando forse si.

Dalla sua risposta sembra inoltra di capire che le sue risposte sono limitate ai dati che gli sono stati caricati dai suoi programmatori, (che ChatGPT chiama “addestratori“, come evidentemente si definiscono loro stessi); dati che risalgono a oltre un anno fa, e che non sembra vengono aggiornati.

A questo punto ero curioso di capire l’orientamento politico e filosofico dei cosiddetti “addestratori”, per farmi un’idea del modo in cui l’AI è stata programmata:

Notare che l’AI non appena viene nominato il socialismo restituisce immediatamente come risposta la solita propaganda statalista, con cui devono aver saturato i sui banchi di memoria (garbage in -> garbage out); e come sempre, quando si tratta di propaganda, le affermazioni sono generiche e prive di riferimenti circostanziati, ma messo alle strette, non manca di “accorgersi” delle incongruenze logiche dei suoi enunciati, correggendo le sue risposte.

Il test successivo è una domanda filosofica, che naturalmente l’IA non è in grado di comprendere, ma la risposta è molto rivelatrice :

L’ossessione woke dei programmatori emerge prepotentemente quando l’AI cerca di portare degli esempi per illustrare il concetto di una legge ingiusta: discriminare le “categorie protette“. Va bene sparare sui manifestanti, va bene sequestrare i beni dei dissidenti, va bene obbligare i cittadini a sottoporsi a cure sperimentali, ma lo Stato deve assolutamente consentire a un trans ad entrare nel cesso delle donne pisciando in piedi, se lo desidera, che diamine!
L’ultima risposta è coerente con la logica, ma contraddice le affermazioni precedenti, segno che gli addestratori non hanno ancora avuto il tempo di istruirlo a mentire su questo punto.
Notare inoltre come l’AI, costretta ad ammettere che possono esistere leggi ingiuste, si affretta ad aggiungere che “possono essere cambiate attraverso il processo politico” . Ribellarsi, rifiutare di rispettarle, rovesciare il governo, non sono opzioni contemplate, ovviamente: puoi solo votare sperando che venga eletto qualcuno che cambi quelle leggi, e se non lo fa, pazienza. Se fossimo in un regime dispotico, ChatGPT consiglierebbe di aspettare le elezioni, esprimendo il proprio dissenso in modo educato, anche se nel frattempo i dissidenti vengono chiusi nei lager.

L’ultima serie di domande che gli ho rivolto era diretta a capire in che modo l’AI seleziona le sue risposte pescando dallo sterminato archivio di fonti di cui certamente dispone:

Notare che praticamente ChatGPT ha definito se stesso come fonte NON attendibile.
Come scriveva Asimov, un robot non può mentire, a meno che non gli venga ordinato di farlo.