Motivi economici possono distruggere l'intelligenza artificiale

Intelligenza artificiale compatibile con l'uomo e problema del controllo
Forfatter: Stuart Russell
Forlag: Allen Lane (Storbritannia)
KI / Cosa succede se creiamo qualcosa di più intelligente di noi stessi, una macchina che potrebbe fare qualcosa di completamente diverso da quello che vogliamo?




(QUESTO ARTICOLO È TRADOTTO DA Google dal norvegese)

Può una macchina comprendere tutte le preferenze umane? Esistono macchine altruistiche? Sarà super intelligente intelligenza artificiale (KI) vieni mai? Sarà possibile scaricare la coscienza umana in un programma per computer? Queste sono domande Stuart Russell indirizzi in questo libro. Russell è, tra le altre cose, professore di informatica e dottorato honoris causa al Wadham College di Oxford. Ha ricevuto numerosi premi e onorificenze per le sue ricerche sul rapporto tra computer e esseri umani e ha scritto numerosi libri sui pericoli e sui benefici dell'intelligenza artificiale.

Il libro affronta questioni importanti e centrali, come i salari dei cittadini e come la tecnologia dovrebbe essere utilizzata all'interno del sistema educativo. Russell discute anche dei problemi con l'uso di umanoidi, robot che sembrano persone.

Differenti interpretazioni del contesto possono creare disturbi nella comunicazione tra le persone
e macchina.

Alan Turing ha messo in guardia dal fare robot il più umano possibile. Credeva che potesse creare legami emotivi da uomo a macchina, il che potrebbe far prendere il sopravvento alle macchine. Russell è d'accordo, ma afferma anche che nessuno ascolta Turing in quest'area.

I diritti del robot

Ai robot dovrebbe essere riconosciuto lo status di individui elettronici con propri diritti? Come evitare che agli esseri umani venga assegnato uno status inferiore rispetto ai robot? Chi dovrebbe essere punito se il robot fa qualcosa di criminale: il programmatore o il robot? E come punisci un robot in questo caso? È inutile imprigionare i robot, perché non hanno sentimenti.

Russell si rifiuta di rispondere alla domanda su quando superintelligente KI verrà. Egli fa riferimento a tutte le previsioni folli e sbilenche che gli uomini ben informati hanno propinato nel corso della storia e ritiene che la domanda stessa presupponga una "svolta concettuale" sulla quale non è possibile dire nulla di certo.

Russell porta alla ribalta molti esempi appropriati e divertenti di quanto sia possibile sbagliarsi: ad esempio, nel 1929, lo scienziato nucleare Rutherford fece un’affermazione quasi certa secondo cui una reazione nucleare a catena non avrebbe mai avuto luogo, e solo pochi anni dopo lo scienziato nucleare fece iniziare a Szilárd il concetto della prima reazione nucleare a catena.

Scelta umana

Le preferenze umane non si trovano all’interno di una macchina né sono qualcosa che possa essere osservato direttamente, ma deve comunque esserci un collegamento tra la macchina e le preferenze umane, scrive Russell. Queste preferenze possono essere osservate attraverso la scelta umana. Se la macchina vuole essere in grado di comprendere le preferenze umane, deve sapere cosa vogliono le persone. Una macchina che non sa nulla delle preferenze umane non sarà utile agli esseri umani, e allora lo scopo della macchina non c’è più.

Babael Esmael
Ill.: Babael Ishmael, Se www.libex.eu

Gli esseri umani non sono sempre razionali, e come dovrebbe una macchina essere in grado di tenere conto della natura imperfetta e irrazionale della nostra specie quando deve scoprire cosa vogliamo? Le macchine devono imparare a interpretare questi “disturbi”.

Differenti interpretazioni del contesto possono creare disturbi nella comunicazione tra persone e macchina. Se dico ad una macchinetta: "Prendimi una pizza a qualunque costo!" – La macchina è quindi disposta a uccidere metà dell'umanità per procurarmi una pizza? Oppure vuole comprare una pizza da mezzo milione di corone? Come evitare che un robot faccia il giro del mondo alla disperata ricerca di un caffè perché l'ultima fermata era chiusa e io volevo un caffè “a qualunque costo”? Come impareranno le macchine e gli esseri umani a parlare tra loro? E come impareranno a capirsi?

Etica e morale

Puoi riempire una macchina con etica og morale che gli consentirà di risolvere i problemi umani? Il problema con le macchine non è che non riescano a risolvere i problemi, scrive Russell, ma che corriamo il rischio che risolvano i problemi nel modo sbagliato: cercando soluzioni adeguate ai problemi ecologici, ad esempio, potrebbero finire per sterminare l’umanità.

Russell scrive: "Il fatto che le macchine siano incerte su ciò che la gente vuole è la chiave per creare macchine utilizzabili". Perché? Sì, perché una macchina che crede di aver capito ciò che vuole l'uomo potrebbe benissimo arrivare ad agire di proposito, ma in modo sfortunato, a causa di un errore di sistema che non prevede possibilità di errata interpretazione, e potrebbe arrivare a fare qualcosa di molto devastante nel cammino verso il suo obiettivo.

Alla ricerca di soluzioni adeguate ai problemi ecologici, le macchine potrebbero tornare in sé
per sterminare il genere umano.

Russell ritiene tuttavia che ci sia motivo di ottimismo: "Se vogliamo che tutto vada bene", scrive, "dobbiamo allontanarci dall'idea che la coscienza della macchina debba allinearsi a quella dell'uomo". All'interno del KI, questo è chiamato "Il problema dell'allineamento". Sta posando economico interessi come base per creare macchine in linea con l’intelligenza umana. Le macchine potranno quindi iniziare a svilupparsi ulteriormente, fino a diventare supercomputer che non seguono le istruzioni umane. Allora potrebbe finire con l’estinzione dell’umanità.

Motivi economici

C’è un vantaggio maggiore nelle macchine che fanno ciò che l’uomo vuole, rispetto alle macchine che fanno qualcosa di completamente diverso da ciò che l’uomo vuole. Russell sottolinea tuttavia la possibilità che un singolo ingegnere informatico sia in grado di distruggere se stesso e gli altri, consentendo alle macchine di iniziare ad agire da sole. Le motivazioni economiche possono distruggere interi settori e creare macchine competitive che sfuggono al controllo.

Se ci si concentra più sullo sviluppo dell’intelligenza artificiale fine a se stessa che sul problema del controllo, le cose possono andare storte. Non perdiamo nulla condividendo la conoscenza gli uni con gli altri, perché l’intelligenza artificiale non è un gioco a somma zero, sottolinea Russell. D’altra parte: competere per sviluppare il primo computer che sarà in grado di superare gli esseri umani creerà un gioco a somma zero negativa. Scrive: "Forse la cosa più importante che possiamo fare è sviluppare sistemi di intelligenza artificiale che siano, per quanto possibile, sicuri e utili per gli esseri umani. Solo allora avrà senso regolamentare l’intelligenza artificiale”.

Leggi anche: Una società costruita sull'intelligenza artificiale e Sami Mahroum

Abbonamento NOK 195 al trimestre