I motivi economici possono rovinare l'intelligenza artificiale

KI: Cosa succede se creiamo qualcosa di più intelligente di noi stessi, una macchina che potrebbe fare qualcosa di completamente diverso da quello che vogliamo?

Critico letterario in TEMPI MODERNI.
Intelligenza artificiale compatibile umana e problema di controllo
Autore: Stuart Russell
Editore: Allen Lane, Regno Unito

KI: Cosa succede se creiamo qualcosa di più intelligente di noi stessi, una macchina che potrebbe fare qualcosa di completamente diverso da quello che vogliamo?

(Tradotto da Norwegian di Google Gtranslate)

Una macchina può comprendere tutte le preferenze umane? Ci sono macchine altruistiche? Sarà superintelligente intelligenza artificiale (KI) mai arrivato? Sarà possibile scaricare la coscienza umana su un programma per computer? Queste sono domande Stuart Russell riprende questo libro. Russell è professore di informatica e dottorato onorario al Wadham College di Oxford. Ha ricevuto numerosi riconoscimenti e onorificenze per le sue ricerche sulla relazione tra computer e umani e ha scritto numerosi libri sui pericoli e sui benefici dell'intelligenza artificiale.

Il libro affronta questioni importanti e centrali, come gli stipendi dei cittadini e come la tecnologia dovrebbe essere utilizzata all'interno del sistema educativo. Russell discute anche dei problemi legati all'uso degli umanoidi, robot simili agli umani.

Diverse interpretazioni del contesto possono creare interruzioni nella comunicazione tra le persone
e macchina.

Alan Turing ha messo in guardia dal fare robot più simile agli umani. Credeva che potesse creare legami emotivi da uomo a macchina, il che poteva far sì che le macchine prendessero il sopravvento. Russell è d'accordo, ma afferma anche che nessuno ascolta Turing in questo settore.

I diritti del robot

Ai robot dovrebbe essere assegnato lo status di individui elettronici con i propri diritti? Come impediamo agli esseri umani di avere uno status inferiore rispetto ai robot? Chi dovrebbe essere punito se il robot fa qualcosa di criminale: il programmatore o il robot? E come si punisce un robot in questo caso? È inutile imprigionare i robot, perché non hanno sentimenti.

Russell si rifiuta di rispondere alla domanda su quando è super intelligente KI verrà. Indica tutte le previsioni sbagliate e distorte che persone informate hanno servito nel corso della storia e crede che la domanda stessa presupponga una "svolta concettuale" su cui non è possibile dire con certezza.

Russell porta in piazza molti esempi appropriati e divertenti di quanto sia possibile sbagliare: per esempio, lo scienziato nucleare Rutherford nel 1929 fece un'affermazione parziale che una reazione nucleare a catena non avrebbe mai avuto luogo, e solo pochi anni dopo il nucleare scienziato aveva Szilárd lanciato il concetto della prima reazione nucleare a catena.

La scelta dell'uomo

Le preferenze umane non esistono all'interno di una macchina e non sono qualcosa che può essere osservato direttamente, ma deve esserci ancora un collegamento tra la macchina e le preferenze umane, scrive Russell. Queste preferenze possono essere osservate attraverso la scelta umana. Se la macchina deve essere in grado di comprendere le preferenze umane, deve acquisire familiarità con ciò che gli umani vogliono. Una macchina che non sa nulla delle preferenze umane non sarà utile agli umani, e quindi il punto della macchina è sparito.

Babael Esmael
Ill.: Babael Esmael, vedi www.libex.eu

Gli esseri umani non sono sempre razionali, e come può una macchina prendere in considerazione l'imperfetto e l'irrazionale della nostra specie quando capisce cosa vogliamo? Le macchine devono imparare a interpretare questi "disturbi".

Una diversa comprensione del contesto può creare interruzioni nella comunicazione tra persone e macchine. Se dico a una macchinetta: "Prendimi una pizza, non importa quanto costa!" – la macchina è quindi disposta a uccidere metà dell'umanità per procurarmi una pizza? O comprerà una pizza che costa mezzo milione di corone? Come evitare un robot che guida per mezzo mondo alla disperata ricerca di caffè perché l'ultima fermata era chiusa e io volevo un caffè "non importa cosa"? Come dovrebbero le macchine e gli esseri umani imparare a parlare tra loro? E come impareranno a capirsi?

Etica e morale

Puoi riempire una macchina con etica og morale chi gli consentirà di risolvere i problemi umani? La scimmia con le macchine non è che non possono risolvere i problemi, scrive Russell, ma che rischiamo che risolvano i problemi nel modo sbagliato: alla ricerca di soluzioni adeguate ai problemi ecologici, ad esempio, potrebbero sterminare l'umanità.

Russell scrive: "Il fatto che le macchine siano incerte su ciò che vogliono gli esseri umani è la chiave per creare macchine utilizzabili". Perché? Sì, perché una macchina che pensa di aver capito ciò che l'uomo vuole, potrebbe agire in modo mirato, ma in modo sfortunato, a causa di un errore di sistema che non include la possibilità di interpretazioni errate, e potrebbe fare qualcosa di molto distruttivo sulla strada per il suo obiettivo.

Alla ricerca di soluzioni adeguate ai problemi ecologici, le macchine potrebbero venire con
per sterminare l'umanità.

Russell ritiene, tuttavia, che ci sia motivo di ottimismo: "Se questo deve andare bene", scrive, "dobbiamo allontanarci dall'idea che la coscienza della macchina deve essere allineata con quella dell'uomo". All'interno di KI, questo è chiamato "The Alignment Problem". È sdraiato economico interessi per creare macchine che si allineino con l'intelligenza umana. Quindi le macchine possono iniziare a svilupparsi ulteriormente, per poter eventualmente diventare supercomputer che non seguono le istruzioni umane. Quindi potrebbe finalmente finire con l'estinzione dell'umanità.

Motivi economici

C'è maggiore utilità nelle macchine che eseguono ciò che l'uomo vuole, che in macchine che fanno qualcosa di completamente diverso da ciò che l'uomo vuole. Russell sottolinea tuttavia la possibilità che un singolo ingegnere informatico possa essere in grado di distruggere se stesso e gli altri, lasciando che le macchine inizino ad agire da sole. I motivi economici possono essere devastanti per l'intero settore e possono produrre macchine a guida competitiva che sfuggono al controllo.

Se ci si concentra più sullo sviluppo di KI fine a se stesso che sul problema del controllo, le cose possono andare storte. Non perdiamo nulla condividendo la conoscenza tra di noi, perché KI non è un gioco a somma zero, sottolinea Russell. D'altra parte: competere per sviluppare il primo computer che sarà in grado di superare gli umani creerà un gioco a somma zero negativa. Scrive: “Forse la cosa più importante che possiamo fare è sviluppare sistemi KI che siano – per quanto possibile – sicuri e utili per l'uomo. Solo allora avrà senso regolamentare l'intelligenza artificiale ".

Leggi anche: Una società costruita sull'intelligenza artificiale di Sami Mahroum

Abbonamento NOK 195 quarti