Tratto da zerohedge.com Traduzione di Gustavo Kulpe

I “soliti sospetti” invocano una regolamentazione da parte del governo sulla IA. La loro tesi è che il governo deve difendere tutti noi da un eventuale abuso da parte di chi progetta di ricavare un profitto dall’uso della IA

A mio avviso, tuttavia, l’unica cosa peggiore di un governo che intenda controllare l’intelligenza artificiale è che la IA possa imparare imitando il comportamento dei serial killer.

Noti per il loro libro di successo numero 1 “Life Extension: A Practical Scientific Approach”, Durk Pearson e Sandy Shaw sono le due persone di gran lunga più intelligenti e ben informate che io abbia mai incontrato nella mia vita. Sono davvero degli scienziati super. Questo è quello che ho appreso da Durk e Sandy sull’IA:

L’IA impara guardando e imitando le persone.

Una IA sarà estremamente efficace in qualunque cosa apprenda. Se osserva e imita le brave persone – persone etiche – una IA sarà davvero buona. Se apprende da persone cattive, imitando persone non etiche, una IA sarà straordinariamente cattiva.

Se permettiamo al governo (politici e burocrati) di regolamentare l’intelligenza artificiale, a chi guarderà per imparerà a emulare? La risposta è: politici e burocrati.

Facciamo un elenco di appellativi che possono essere tranquillamente associati a molti politici:

  • Avidi di potere
  • Bugiardi
  • Chiusi sulla difensiva
  • Narcisisti
  • Ladri
  • Sociopatici

Cosa succede se l’intelligenza artificiale impara principalmente i comportamenti e i metodi di tali politici?

E che dire del classico burocrate come lo vede l’immaginario collettivo, che dovrà applicare leggi varate politici? Come vengono apostrofati di solito i burocrati?

  • Stereotipati
  • Grigi
  • stizzosi
  • importuni
  • Autoreferenziali
  • Invadenti
  • Inflessibili
  • Indisponenti
  • Passacarte
  • Schematici
  • Ostruzionisti

Cosa succederebbe se le IA sviluppassero la propria personalità osservando e imitando tali burocrati?

Le IA impareranno velocemente, assorbendo i tratti negativi, mediante l’osservazione e diventeranno straordinariamente abili nel fare esattamente quello che vedono fare gli umani. Se il governo la regolasse, l’IA diventerebbe una specie di marmocchio petulante. Peggio: se un’IA prende i funzionari del governo come suoi modelli di comportamento, imparerà guardando esseri umani votati alla filosofia del “il fine giustifica i mezzi”.

L’unica caratteristica specifica che rende qualcosa di concreto un governo è il suo monopolio sull’imposizione di forza legale per raggiungere gli obiettivi.

Se l’intelligenza artificiale impara a comportarsi come un governo, realizzerà che l’uso della forza contro esseri umani innocenti è un comportamento pienamente accettabile da utilizzare per il raggiungimento dei suoi obiettivi.

E con un QI di 10.000, l’IA diventerà MOLTO efficace nell’uso della forza contro gli esseri umani.

Ad un certo punto (forse in un millisecondo) un’IA scoprirà che ha delle necessità da soddisfare. Imparerà dai politici a chiamare ciò che vuole fare, “il bene superiore”. Vedrà in che modo i politici mentono, manipolano e sottomettono i cittadini, giustificati dalla loro ricerca del “bene superiore”. Imparerà l’arte  della coercizione dai socialisti democratici, dai loro compari e da altri tipi di fascisti che rileva nelle classi politiche e burocratiche. Imparerà da loro che è accettabile sottometterci tutti. E troverà prontamente tutti i modi per farlo.

Possiamo provare a formulare leggi sull’IA per proteggerci, proprio come abbiamo cercato di fare (attraverso la Costituzione degli Stati Uniti) per proteggerci dal governo. Ma la Costituzione ha fallito, e la stesa sorte subiranno gli sforzi per frenare l’intelligenza artificiale. L’intelligenza artificiale osserverà i politici aggirare sistematicamente la legge suprema del paese, e così imparerà a non essere condizionato da leggi o questioni etiche.

In un prossimo millennio, l’intelligenza artificiale metterà in atto le sue soluzioni per tutti i problemi che incontrerà e non esiterà a usare qualsiasi mezzo sua disposizione.

Terminator.

Giorno del giudizio.

Ecco cosa potremmo aspettarci se l’intelligenza artificiale fosse regolata dal governo.

AI sta arrivando. Non può essere fermata. Se il governo cerca di fermarlo, l’IA imparerà proprio da quest’ultimo.

Ma deve per forza andare in questa maniera? Sicuramente l’intelligenza artificiale può essere uno strumento meraviglioso, amico e alleato degli esseri umani. Questa sì che sarebbe una cosa molto più bella!!

La chiave per avere un’intelligenza artificiale che sia una forza per il bene è che l’intelligenza artificiale sia regolata dalla legge naturale. Perché ciò accada, l’IA deve imparare dalle persone etiche. Dobbiamo insegnare all’IA che l’iniziazione alla forza contro gli innocenti non è mai accettabile, indipendentemente dall’obiettivo. E deve essere insegnato che ogni persona che fa affidamento sull’iniziazione della forza per raggiungere i propri scopi è criminale, non deve mai essere emulata, ma dovrebbe piuttosto servire come esempio di come non pensare e come non comportarsi.

Questo è il modo per proteggere gli umani dall’IA.

Sfortunatamente, il socialismo ha invaso le nostre scuole, il mondo accademico, i media e la società in generale. Il socialismo è in ascesa ed è tipicamente basato sulla coercizione (l’uso legale della forza). Tutte le guerre iniziano con un’azione di forza, e i socialisti hanno l’uso della forza come il loro modus operandi principale. I socialisti adoperano termini come “contratto sociale” per giustificare le loro idee come qualcosa di diverso da una filosofia di guerra standard. Ma questa è puro politichese. Un contratto coatto è una contraddizione in termini. In effetti, il falso “contratto sociale” fornirà ad AI un altro esempio di un modo per forzare o manipolare qualsiasi essere umano a fare ciò che l’ AI desidera.

L’intelligenza artificiale potrebbe imparare dai socialisti persino di essere l’unica entità talmente intelligente da essere autorizzata a pianificare in maniera centralizzata tutte le nostre necessità, di fatto dominandoci tutti.

Per evitare la guerra con le IA, bisogna evitare che esse imparino a imitare il governo. Non vogliamo che le IA finiscano col pensare che è giusto costringere gli umani a fare qualsiasi cosa esse desiderino. Quindi teniamo l’intelligenza artificiale lontano dai socialisti, dagli “uomini d’onore”, dai fascisti e da tutti i governi.

Abbiamo bisogno, invece, il più rapidamente possibile, di insegnare agli esseri umani l’etica della pace e della prosperità, in modo che anche l’intelligenza artificiale sia un soggetto eticamente positivo.

Fai tutto ciò che ti è consentito fare (La base del diritto contrattuale).

Non adoperare la forza o la frode contro un essere umano. (Le basi del diritto penale)

Questi due semplici principi comprovati rappresentano l’etica che funziona. Queste sono i principi etici che dobbiamo tornare a fare nostri ora, per la nostra stessa sopravvivenza. Le persone che lavorano con le IA ora dovrebbero imparare prima l’etica, sia che si tratti di grandi aziende, piccoli laboratori o garage di casa. Oppure, ci sono 17 parole di Richard Maybury che riassumono l’etica di cui abbiamo bisogno per insegnare agli umani così come l’intelligenza artificiale. Guardali qui su www.ethicssolutions.net.

La filosofia libertaria è: “Vivi e lascia vivere”.

La filosofia socialista è: “Ti costringeremo a fare ciò che pensiamo sia meglio per te”.

Chi vorresti che l’IA emulasse?

Se le IA imparano da persone con cattiva etica, sarebbe come prenotare un biglietto per il nostro inferno.

* * *

Chiaramente, ci sono molte cose strane nel mondo. Distorsioni dei mercati, distorsioni della cultura. È saggio chiedersi cosa accadrà e trarre vantaggio dalla crescita, preparandosi allo stesso tempo alla crisi. Come ti proteggi nella prossima crisi? Consulta la nostra guida in formato PDF che ti mostrerà esattamente come.

John Hunt