Può una macchina comprendere tutte le preferenze umane? Esistono macchine altruistiche? Sarà super intelligente intelligenza artificiale (KI) vieni mai? Sarà possibile scaricare la coscienza umana in un programma per computer? Queste sono domande Stuart Russell indirizzi in questo libro. Russell è, tra le altre cose, professore di informatica e dottorato honoris causa al Wadham College di Oxford. Ha ricevuto numerosi premi e onorificenze per le sue ricerche sul rapporto tra computer e esseri umani e ha scritto numerosi libri sui pericoli e sui benefici dell'intelligenza artificiale.
Il libro affronta questioni importanti e centrali, come i salari dei cittadini e come la tecnologia dovrebbe essere utilizzata all'interno del sistema educativo. Russell discute anche dei problemi con l'uso di umanoidi, robot che sembrano persone.
Differenti interpretazioni del contesto possono creare disturbi nella comunicazione tra le persone
e macchina.
Alan Turing ha messo in guardia dal fare robot il più umano possibile. Credeva che potesse creare legami emotivi da uomo a macchina, il che potrebbe far prendere il sopravvento alle macchine. Russell è d'accordo, ma afferma anche che nessuno ascolta Turing in quest'area.
I diritti del robot
Ai robot dovrebbe essere riconosciuto lo status di individui elettronici con propri diritti? Come evitare che agli esseri umani venga assegnato uno status inferiore rispetto ai robot? Chi dovrebbe essere punito se il robot fa qualcosa di criminale: il programmatore o il robot? E come punisci un robot in questo caso? È inutile imprigionare i robot, perché non hanno sentimenti.
Russell si rifiuta di rispondere alla domanda su quando superintelligente KI verrà. Indica tutte le previsioni folli e distorte che le persone ben informate hanno fornito nel corso della storia e crede che la domanda stessa richieda una "svolta concettuale" su cui non è possibile dire nulla di certo.
Russell porta in primo piano molti esempi appropriati e divertenti di quanto sia possibile sbagliare: ad esempio, nel 1929, lo scienziato nucleare Rutherford fece un'affermazione quasi certa che una reazione nucleare a catena non avrebbe mai avuto luogo, e solo pochi anni dopo lo scienziato nucleare fece iniziare a Szilárd il concetto della prima reazione nucleare a catena.
Scelta umana
Le preferenze umane non si trovano all'interno di una macchina né sono qualcosa che può essere osservato direttamente, ma deve comunque esserci un anello di congiunzione tra la macchina e le preferenze umane, scrive Russell. Queste preferenze possono essere osservate attraverso la scelta umana. Se la macchina deve essere in grado di comprendere le preferenze umane, deve conoscere ciò che le persone vogliono. Una macchina che non sa nulla delle preferenze umane non sarà utile agli umani, e quindi il punto della macchina è andato.

Gli esseri umani non sono sempre razionali, e come dovrebbe una macchina essere in grado di tenere conto della natura imperfetta e irrazionale della nostra specie quando deve scoprire cosa vogliamo? Le macchine devono imparare a interpretare questi "disturbi".
Diverse interpretazioni del contesto possono creare disturbi nella comunicazione tra persone e macchina. Se dico a una macchinetta: "Prendimi una pizza a tutti i costi!" – la macchina è quindi disposta a uccidere metà dell'umanità per portarmi una pizza? O vuole comprare una pizza che costa mezzo milione di corone? Come evitare un robot che gira mezzo mondo alla disperata ricerca di un caffè perché l'ultima fermata era chiusa e io volevo un caffè "a qualunque costo"? In che modo macchine e umani impareranno a parlarsi? E come impareranno a capirsi?
Etica e morale
Puoi riempire una macchina con etica og morale che le consentirà di risolvere i problemi umani? Il problema con le macchine non è che non possono risolvere i problemi, scrive Russell, ma che corriamo il rischio che risolvano i problemi nel modo sbagliato: cercando soluzioni adeguate ai problemi ecologici, ad esempio, potrebbero finire per sterminare l'umanità.
Russell scrive: "Il fatto che le macchine siano incerte su ciò che la gente vuole è la vera chiave per creare macchine utilizzabili". Come mai? Sì, perché una macchina che crede di aver capito cosa vuole l'umano potrebbe benissimo arrivare ad agire di proposito, ma in modo infelice, a causa di un errore di sistema che non prevede la possibilità di un'errata interpretazione, e potrebbe arrivare a fare qualcosa di molto devastante sulla strada per il suo obiettivo.
Cercando soluzioni adeguate ai problemi ecologici, le macchine potrebbero venire a posto
per sterminare l'umanità.
Tuttavia, Russell crede che ci sia motivo di ottimismo: "Se questo deve andare bene", scrive, "dobbiamo allontanarci dall'idea che la coscienza della macchina debba allinearsi a quella dell'uomo". All'interno del KI, questo è chiamato "Il problema dell'allineamento". Sta posando economico interessi come base per la creazione di macchine che siano in linea con l'intelligenza umana. Le macchine possono quindi iniziare a svilupparsi ulteriormente, fino a diventare supercomputer che non seguono le istruzioni umane. Quindi potrebbe alla fine finire con l'estinzione dell'umanità.
Motivi economici
C'è un vantaggio maggiore nelle macchine che fanno ciò che l'uomo vuole, piuttosto che nelle macchine che fanno qualcosa di completamente diverso da ciò che l'uomo vuole. Russell indica tuttavia la possibilità che un singolo ingegnere informatico sia in grado di distruggere se stesso e gli altri, consentendo alle macchine di iniziare ad agire da sole. I motivi economici possono distruggere intere industrie e possono creare macchine competitive che sfuggono al controllo.
Se ti concentri più sullo sviluppo dell'IA fine a se stessa che sul problema del controllo, le cose possono andare male. Non perdiamo nulla condividendo le conoscenze tra di noi, perché l'intelligenza artificiale non è un gioco a somma zero, sottolinea Russell. D'altra parte: competere per sviluppare il primo computer in grado di superare gli umani creerà un gioco a somma zero negativa. Scrive: "Forse la cosa più importante che possiamo fare è sviluppare sistemi di intelligenza artificiale che siano – per quanto possibile – sicuri e utili per l'uomo. Solo allora avrà senso regolamentare l'intelligenza artificiale”.
Leggi anche: Una società costruita sull'intelligenza artificiale di Sami Mahroum