Ordina qui il numero di primavera

Intelligenza artificiale o capricci umani?

Ciao mondo! Come essere umani nell'era della macchina
Forfatter: Hannah Fry
Forlag: Doubleday (USA)
La matematica Hannah Fry ha esplorato le carenze e le possibilità dell'intelligenza artificiale.
Una fruttuosa divisione del lavoro tra macchina e uomo è possibile – e necessaria, crede.

Teknisk Ukeblad riferisce che la società con sede a Trondheim Sevendof ha ricevuto il sostegno dell'UE per creare una rete di stazioni di droni in tutta la Norvegia, con droni autonomi in grado di svolgere compiti per vari clienti. Questo è un quadro chiaro di come l'intelligenza artificiale (AI) e i sistemi automatizzati occupino il nostro spazio vitale. Ciò per cui questi sistemi effettivamente fanno e per cui vengono utilizzati ovviamente va oltre le nostre teste in modi diversi. Se ne siamo insoddisfatti, dobbiamo porci la domanda se possiamo risolvere meglio noi stessi i compiti – limitati come siamo dai nostri sensi, dalla ragione che ci viene data e dalla nostra intelligenza umana.

Da servo a tiranno

boken Ciao mondo! Come essere umani nell'era della macchina non guarda ai sogni – o agli incubi – della perfetta IA del futuro, ma si concentra sul presente, sulla nostra frustrante convivenza con l'impressionante ma imperfetta intelligenza artificiale.

A poco a poco ci abituiamo a programmi e ausili che quasi impercettibilmente hanno preso il sopravvento su gran parte della nostra vita quotidiana: motori di ricerca, app e sistemi automatici che dovrebbero facilitare una vita più semplice. Ma quando gli algoritmi sono usati anche nei servizi di medicina, legge, difesa e sorveglianza, sembra che i servitori della tecnologia informatica stiano gradualmente prendendo il potere e finiscano come tiranni.

Cosa preferiamo? La fallibilità oggettiva della macchina oi capricci soggettivi dell'uomo?

Ciao mondo! è strutturato come una divertente striscia di aneddoti che illustrano i vantaggi dell'automazione. Gli esempi vanno dal bizzarro e ridicolo allo scioccante e terrificante.

Fry ci ricorda il drammatico incidente del 1983 in cui l'ufficiale sovietico Stanislav Petrov non riuscì a lanciare un contrattacco quando sembrò che cinque missili nucleari americani fossero diretti verso la Russia. Se la decisione fosse stata lasciata a un algoritmo automatizzato, non ci sarebbe stato spazio per il ben ponderato rifiuto dell'ordine di Petrov, sottolinea l'autore.

Un esempio opposto e comico è la storia di Robert Jones, che si è fidato così ciecamente del suo GPS che ha preso una strada sterrata ed ha evitato per un pelo di precipitarsi da un dirupo. Scuotiamo la testa quando il sistema GPS ci chiede di scegliere un percorso impraticabile, sentendoci convinti che il nostro cervello e il nostro giudizio non siano secondi a nessuno, dopo tutto. La grande forza del libro di Fry è che non si ferma a tale "antipatia algoritmica", ma piuttosto sfuma il problema: la domanda decisiva è cosa dovremmo fare nei casi in cui ikke conosci meglio te stesso.

Il giudice macchina sta arrivando

Illustrazione per Hello WorldFry descrive un sistema informatico che è stato utilizzato negli Stati Uniti per proporre sentenze in tribunale, qualcosa che gli esperti, tra cui lo storico del diritto Jørn Øyrehagen Sunde, ritengono diventerà presto una pratica comune anche in Norvegia. Le analisi automatizzate aiutano i giudici a valutare chi ricadrà più facilmente nel crimine – e diventano così strumenti per imporre condanne e parole, se le previsioni della macchina sono così sinistre.

Non si può evitare che alcuni dei risultati siano intuitivamente percepiti come ingiusti e casuali da giudici, avvocati e profani allo stesso modo. Tuttavia: quando le capacità di valutazione dei giudici americani sono state testate e confrontate attraverso sondaggi anonimi e test ciechi, si è scoperto che spesso giudicavano lo stesso caso in modo molto diverso. I criteri non sono chiari, i casi sono molti e la forma della giornata gioca un ruolo.

Quindi quale preferiamo? La fallibilità oggettiva della macchina o i capricci soggettivi degli umani? Un punto importante sottolineato da Fry è che l'uso di algoritmi nella pratica legale è popolare sia perché fa risparmiare lavoro sia perché i giudici e gli altri coinvolti sono liberati dalla responsabilità diretta per errori e condanne. L'eliminazione della responsabilità diretta è ovviamente un problema per le vittime, un punto che continua a emergere nel dibattito sulle auto senza conducente.

Le persone hanno naturalmente un'avversione per le auto programmate per dare la priorità ai pedoni e quindi potenzialmente vogliono falciarle. Ma chi vuole comprare un'auto programmata altruista che va fuori strada e sacrifica la tua vita per salvare un pedone sconosciuto? Tali problemi possono creare un confine morale insormontabile per l'automazione, dove la responsabilità e il senso di colpa hanno una sorta di valore intrinseco che nessuno vuole davvero consegnare a una macchina.

Informazioni contro l'accesso

La maggior parte delle persone ha sperimentato come usiamo sempre più spesso la calcolatrice, proprio perché l'aumento dell'uso ci rende sempre più poveri in aritmetica mentale. Di conseguenza, l'uso di programmi informatici indebolisce il nostro senso critico, che dovrebbe consentirci di correggere, sfumare e sfidare gli stessi programmi.

Chi comprerebbe un'auto altruista che preferirebbe uscire di strada e sacrificare la propria vita per salvare il pedone di uno sconosciuto?

Ma la colpa non è necessariamente nostra. Fry vorrebbe algoritmi più trasparenti che possano essere verificati e che ci diano opzioni piuttosto che risposte chiare. Questo è relativamente facile da ottenere dove gli algoritmi danno priorità e prendono decisioni, ma è più difficile nei motori di ricerca che classificano, associano e filtrano grandi quantità di dati. Algoritmi basati sull'apprendimento automatico e Big Data trattano una materia ipercomplessa e sono essi stessi spesso impenetrabili nella loro complessità.

Fry evidenzia i numerosi casi problematici in cui l'IA diventa un mezzo di sottile manipolazione. Sapendo che gli americani che guidano Ford spesso votano repubblicani, si può adattare una campagna mirata ai democratici che guidano Ford, dove il patriottismo li conquisterà dalla parte opposta. Molto più sinistro è quando piace utilizzato per classificare i tipi di personalità. Se sei classificata come nervosa e allo stesso tempo sei una donna single, puoi diventare rapidamente il bersaglio di una spinta dalla lobby delle armi: la paura di essere attaccata a casa tua ti rende incline a desiderare una pistola.

Conflitto e cooperazione

Big dati- le analisi sono utilizzate sia nelle campagne pubblicitarie che nelle campagne elettorali. Con il sistema di controllo sociale Sesame Credit, attualmente in fase di implementazione in Cina, tutto ciò che fai viene catturato e riportato in un sistema di punteggio che determina se ci si può fidare di te, aprendo e chiudendo letteralmente le porte della società. Anche in Occidente è impossibile per l'individuo avere una visione d'insieme del mercato dei data broker, che vendono enormi raccolte di informazioni in linea di principio anonime, ma facili da hackerare.

Nei social media come Facebook, scambiamo informazioni su noi stessi in cambio dell'accesso al servizio. Questo potrebbe essere un affare ragionevole, afferma Fry, ma se permetti a un'azienda sanitaria di scansionare il tuo DNA in cambio di servizi medici, spesso non sai cosa comporterà lo scambio, soprattutto perché le normative in genere sono in ritardo rispetto agli sviluppi tecnologici.

Se gli algoritmi e noi vogliamo vivere bene insieme, dobbiamo entrambi imparare av og om loro, sottolinea Fry: Questo è l'unico modo in cui possiamo capire quando la collaborazione è fruttuosa e quando dovresti lavorare separatamente. Il conflitto e la frustrazione con i programmi per computer dovrebbero essere usati "convivenza terapeuticamente": forniscono un'opportunità per migliorare la relazione – e per rendere i sistemi più aperti e capaci di cooperazione. Una rottura completa con l'intelligenza artificiale sta diventando un'opzione sempre meno rilevante, qualcosa che di per sé è molto stimolante.

Leggi anche: Idiozia artificiale e intelligenza naturale

Anders Dunker
Filosofo. Critico letterario regolare a Ny Tid. Traduttore.

Potrebbe piacerti anche