Abbonamento 790/anno o 190/trimestre

Intelligenza artificiale o capricci umani?

Ciao mondo! Come essere umani nell'era della macchina
Forfatter: Hannah Fry
Forlag: Doubleday (USA)
La matematica Hannah Fry ha esplorato le carenze e le possibilità dell'intelligenza artificiale. Una fruttuosa divisione del lavoro tra macchina e uomo è possibile – e necessaria, crede.




(QUESTO ARTICOLO È TRADOTTO DA Google dal norvegese)

Teknisk Ukeblad riferisce che la società con sede a Trondheim Sevendof ha ricevuto il sostegno dell'UE per creare una rete di stazioni di droni in tutta la Norvegia, con droni autonomi in grado di svolgere compiti per vari clienti. Questo è un quadro chiaro di come l'intelligenza artificiale (AI) e i sistemi automatizzati occupino il nostro spazio vitale. Ciò per cui questi sistemi effettivamente fanno e per cui vengono utilizzati ovviamente va oltre le nostre teste in modi diversi. Se ne siamo insoddisfatti, dobbiamo porci la domanda se possiamo risolvere meglio noi stessi i compiti – limitati come siamo dai nostri sensi, dalla ragione che ci viene data e dalla nostra intelligenza umana.

Da servo a tiranno

boken Ciao mondo! Come essere umani nell'era della macchina non guarda ai sogni – o agli incubi – della perfetta IA del futuro, ma si concentra sul presente, sulla nostra frustrante convivenza con l'impressionante ma imperfetta intelligenza artificiale.

A poco a poco ci abituiamo a programmi e ausili che quasi impercettibilmente hanno preso il sopravvento su gran parte della nostra vita quotidiana: motori di ricerca, app e sistemi automatici che dovrebbero facilitare una vita più semplice. Ma quando gli algoritmi sono usati anche nei servizi di medicina, legge, difesa e sorveglianza, sembra che i servitori della tecnologia informatica stiano gradualmente prendendo il potere e finiscano come tiranni.

Cosa preferiamo? La fallibilità oggettiva della macchina oi capricci soggettivi dell'uomo?

Ciao mondo! è strutturato come una divertente striscia di aneddoti che illustrano i vantaggi dell'automazione. Gli esempi vanno dal bizzarro e ridicolo allo scioccante e terrificante.

Fry ci ricorda il drammatico incidente del 1983 in cui l’ufficiale sovietico Stanislav Petrov non riuscì a lanciare un contrattacco quando sembrò che cinque missili nucleari americani fossero diretti verso la Russia. Se la decisione fosse stata lasciata ad un algoritmo automatizzato, non ci sarebbe stato spazio per un rifiuto ben ponderato dell'ordine da parte di Petrov, sottolinea l'autore.

Un esempio opposto e comico è la storia di Robert Jones, che si fidava così ciecamente del suo GPS che imboccò una strada sterrata ed evitò per un pelo di precipitare da un dirupo. Scuotiamo la testa quando il sistema GPS ci chiede di scegliere un percorso poco pratico, convinti che, dopo tutto, il nostro cervello e il nostro giudizio non siano secondi a nessuno. La grande forza del libro di Fry è che non si ferma a tale "antipatia per gli algoritmi", ma piuttosto sfuma il problema: la domanda decisiva è cosa dovremmo fare nei casi in cui dobbiamo ikke conoscere meglio te stesso.

Il giudice macchina sta arrivando

Illustrazione per Ciao mondoFry descrive un sistema informatico che è stato utilizzato negli Stati Uniti per proporre sentenze in tribunale, qualcosa che gli esperti, tra cui lo storico del diritto Jørn Øyrehagen Sunde, ritengono che presto diventerà una pratica comune anche in Norvegia. Le analisi automatizzate aiutano i giudici a valutare chi ricadrà più facilmente nel crimine – e quindi diventeranno strumenti per imporre sentenze e libertà condizionali, se le previsioni della macchina fossero così sinistre.

Non si può evitare che alcuni risultati siano intuitivamente percepiti come ingiusti e casuali da giudici, avvocati e profani. Tuttavia: quando le capacità di valutazione dei giudici americani sono state testate e confrontate attraverso sondaggi anonimi e test alla cieca, è risultato che spesso essi giudicavano lo stesso caso in modo molto diverso. I criteri non sono chiari, i casi sono tanti e la forma della giornata gioca un ruolo.

Quindi quale preferiamo? La fallibilità oggettiva della macchina o i capricci soggettivi dell'uomo? Un punto importante sottolineato da Fry è che l’uso degli algoritmi nella pratica legale è popolare sia perché fa risparmiare lavoro, sia perché i giudici e gli altri soggetti coinvolti sono liberati dalla responsabilità diretta per errori e condanne. L’eliminazione della responsabilità diretta è ovviamente un problema per le vittime, un punto che continua a emergere nel dibattito sulle auto senza conducente.

Le persone hanno naturalmente un’avversione per le auto programmate per dare la priorità ai pedoni e quindi potenzialmente vogliono falciarli. Ma chi vorrebbe comprare un'auto programmata altruistica che corre fuori strada e sacrifica la propria vita per salvare un pedone sconosciuto? Tali questioni possono creare un confine morale invalicabile per l’automazione, dove la responsabilità e il senso di colpa hanno una sorta di valore intrinseco che nessuno vuole veramente attribuire a una macchina.

Informazioni contro l'accesso

La maggior parte delle persone ha sperimentato come usiamo sempre più spesso la calcolatrice, proprio perché il crescente utilizzo ci rende sempre più poveri nell’aritmetica mentale. Di conseguenza, l’uso di programmi informatici indebolisce il nostro senso critico, che dovrebbe consentirci di correggere, sfumare e sfidare gli stessi programmi.

Chi comprerebbe un'auto altruistica che preferirebbe uscire fuori strada e sacrificare la propria vita per salvare il pedone di uno sconosciuto?

Ma la colpa non è necessariamente nostra. Fry vuole algoritmi più trasparenti che possano essere seguiti fin nei minimi dettagli e che ci diano opzioni piuttosto che risposte chiare. Ciò è relativamente facile da ottenere laddove gli algoritmi stabiliscono le priorità e prendono decisioni, ma più difficile nei motori di ricerca che classificano, associano e filtrano grandi quantità di dati. Algoritmi basati sull'apprendimento automatico e Big Data trattano una questione ipercomplessa e sono spesso essi stessi impenetrabili nella loro complessità.

Fry evidenzia i numerosi casi problematici in cui l’intelligenza artificiale diventa un mezzo di manipolazione sottile. Sapendo che gli americani che guidano la Ford spesso votano repubblicano, si può personalizzare una campagna mirata ai democratici che guidano la Ford, dove il patriottismo li conquisterà dalla parte opposta. Molto più sinistro è quando piace utilizzato per classificare i tipi di personalità. Se sei considerata nervosa e allo stesso tempo sei una donna single, puoi diventare rapidamente il bersaglio di una spinta da parte della lobby delle armi: la paura di essere aggredita a casa tua ti porta a desiderare un'arma.

Conflitto e cooperazione

Big dati- le analisi vengono utilizzate sia nelle campagne pubblicitarie che elettorali. Con il sistema di controllo sociale Sesame Credit, attualmente in fase di implementazione in Cina, tutto ciò che fai viene catturato e reimmesso in un sistema di punteggio che determina se ci si può fidare – e quindi apre e chiude letteralmente le porte nella società. Anche in Occidente è impossibile per il singolo avere una visione d'insieme del mercato dei data broker, che vendono enormi raccolte di informazioni che sono in linea di principio anonime, ma facili da hackerare.

Nei social media come Facebook, scambiamo informazioni su noi stessi in cambio dell'accesso al servizio. Questo potrebbe essere un affare ragionevole, dice Fry, ma se lasci che un'azienda sanitaria esegua la scansione del tuo DNA in cambio di servizi medici, spesso non sai cosa comporterà lo scambio, soprattutto perché le normative in genere sono in ritardo rispetto agli sviluppi tecnologici.

Se vogliamo che noi e gli algoritmi conviviamo bene, dobbiamo imparare entrambi av og om loro, sottolinea Fry: Solo così possiamo capire quando la collaborazione è fruttuosa, e quando invece è opportuno lavorare separatamente. Conflitti e frustrazioni con i programmi informatici dovrebbero essere usati come "convivenza terapeutica": offrono l'opportunità di migliorare la relazione e di rendere i sistemi più aperti e capaci di cooperare. Una rottura completa con l’intelligenza artificiale sta diventando un’opzione sempre meno rilevante – qualcosa che di per sé è molto stimolante.

Leggi anche: Idiozia artificiale e intelligenza naturale

Anders Dunk
Anders Dunker
Filosofo. Critico letterario regolare a Ny Tid. Traduttore.

Potrebbe piacerti anche