Ordina qui l'edizione primaverile con il documento di avvertimento

Intelligenza artificiale o capricci umani?

Ciao mondo! Come essere umani nell'era della macchina
Forfatter: Hannah Fry
Forlag: Doubleday, USA

La matematica Hannah Fry ha esplorato le carenze e le possibilità dell'intelligenza artificiale. Una fruttuosa divisione del lavoro tra macchina e uomo è possibile e necessaria, secondo lei.

(Tradotto da Norwegian di Google Gtranslate)

Teknisk Ukeblad riferisce che Sevendof, società con sede a Trondheim, ha ricevuto finanziamenti dall'UE per costituire una rete di stazioni per droni in tutta la Norvegia, con droni autonomi in grado di svolgere compiti per diversi clienti. Questa è una chiara immagine di come l'intelligenza artificiale (KI) e i sistemi automatizzati occupino il nostro spazio vitale. Ciò che questi sistemi fanno davvero e per cui vengono utilizzati, ovviamente ci fa passare la testa in diversi modi. Se non siamo soddisfatti con loro, dobbiamo chiederci se possiamo meglio risolvere i compiti da soli – limitati come lo siamo dai nostri sensi, dal senso dato a noi e dalla nostra intelligenza umana.

Da servo a tiranno

boken Ciao mondo! Come essere umani nell'era della macchina non guarda ai sogni – o agli incubi – del perfetto KI del futuro, ma si concentra sul giorno di oggi – sulla nostra frustrante convivenza con l'impressionante, ma altamente imperfetta intelligenza artificiale.

Ci stiamo gradualmente abituando a programmi e ausili che hanno quasi impercettibilmente assunto gran parte della nostra vita quotidiana: motori di ricerca, app e sistemi automatizzati che faciliteranno una vita più semplice. Ma quando gli algoritmi vengono utilizzati anche in medicina, legge, difesa e servizi di sorveglianza, si ha la sensazione che i servitori della tecnologia informatica prendano gradualmente il potere e finiscano per diventare tiranni.

Cosa preferiamo? La fallibilità oggettiva della macchina oi capricci soggettivi degli uomini?

Ciao mondo! è costruito come una divertente striscia di aneddoti che illustrano i progressi dell'automazione. Gli esempi vanno dal bizzarro e ridicolo allo scioccante e terrificante.

- annuncio pubblicitario -

Fry ci ricorda il drammatico incidente nel 1983 in cui l'ufficiale sovietico Stanislav Petrov non è riuscito a lanciare un contrattacco quando è apparso che cinque missili nucleari statunitensi erano in viaggio verso la Russia. Se la decisione fosse stata lasciata a un algoritmo automatizzato, non ci sarebbe stato spazio per il ponderato rifiuto dell'ordine di Petrov, sottolinea l'autore.

Un esempio opposto e comico è la storia di Robert Jones, che si è affidato così ciecamente al GPS che ha preso una pista per il bestiame e ha evitato a malapena di guidare giù da una scogliera. Scuotiamo la testa quando il sistema GPS vuole che scegliamo un percorso poco pratico e ci sentiamo convinti che il nostro cervello e il nostro giudizio sono, dopotutto, insuperabili. Il grande punto di forza del libro di Frys è che non si ferma a un tale "algoritmo-antipatia", ma piuttosto sfumare il problema: la domanda cruciale è cosa dovremmo fare nei casi in cui ikke conosci meglio te stesso.

Il giudice della macchina sta arrivando

Illustrazione per Hello WorldFry descrive un sistema informatico che è stato utilizzato negli Stati Uniti per proporre la condanna in tribunale, che gli esperti, tra gli altri lo storico del diritto Jørn Øyrehagen Sunde, ritengono che presto potrà diventare pratica corrente anche in Norvegia. Le analisi automatizzate aiutano i giudici a valutare chi ricadrà più facilmente nel crimine e quindi a diventare strumenti per condannare alla durata della reclusione e della libertà vigilata, anche se le previsioni della macchina non sono mai così sinistre.

È inevitabile che alcuni dei risultati siano percepiti intuitivamente come ingiusti e casuali da giudici, avvocati e laici. Eppure: quando il giudizio dei giudici americani è stato testato e controllato attraverso esami anonimi e test ciechi, si è scoperto che spesso giudicavano lo stesso caso in modo molto diverso. I criteri non sono chiari, i casi sono tanti e entra in gioco la forma quotidiana.

Allora cosa preferiamo? La fallibilità oggettiva della macchina oi capricci soggettivi degli uomini? Un punto importante in Fry è che l'uso di algoritmi nella giurisprudenza è popolare sia perché fa risparmiare lavoro sia perché i giudici e gli altri coinvolti evitano la responsabilità diretta per errori e condanne. L'eliminazione della responsabilità diretta è ovviamente un problema per le vittime, un punto che emerge costantemente nel dibattito sulle auto senza conducente.

Le persone naturalmente hanno un'avversione per le auto che sono programmate per declassare i pedoni e quindi potenzialmente vogliono falciarli. Ma chi vuole comprare un'auto programmata in modo altruistico che esce dalla strada e sacrifica la tua vita per salvare un pedone straniero? Tali questioni possono creare un confine morale insormontabile per l'automazione – dove responsabilità e colpa hanno una sorta di valore intrinseco che nessuno vuole veramente lasciare a una macchina.

Informazioni contro l'accesso

La maggior parte delle persone ha sperimentato sempre più spesso come usiamo una calcolatrice, proprio perché l'aumento dell'uso ci rende sempre peggiori nell'aritmetica mentale. Allo stesso modo, l'uso di programmi per computer indebolisce il nostro senso critico, che dovrebbe consentirci di correggere, sfumare e sfidare gli stessi programmi.

Chi comprerebbe un'auto altruista che preferirebbe uscire dalla strada e sacrificare la tua vita per salvare un pedone straniero?

Ma la colpa non è necessariamente di noi stessi. Fry vuole algoritmi più trasparenti che possano essere seguiti fino in fondo e che ci diano opzioni di scelta piuttosto che risposte univoche. Ciò è relativamente facile da ottenere laddove gli algoritmi stabiliscono le priorità e prendono decisioni, ma più difficile nei motori di ricerca che classificano, associano e filtrano grandi quantità di dati. Algoritmi basati sull'apprendimento automatico e Big Data tratta una materia ipercomplessa ed è essa stessa spesso impenetrabile nella sua complessità.

Fry evidenzia i molti casi problematici in cui KI diventa un mezzo di manipolazione sottile. Sapendo che gli americani che guidano Ford spesso votano repubblicano, si può adattare una campagna mirata ai democratici che guidano Ford, in cui il patriottismo li convincerà dalla parte opposta. È molto più inquietante quando piace utilizzato per classificare i tipi di personalità. Se sei classificata come nervosa e allo stesso tempo una donna single, puoi diventare rapidamente l'obiettivo di una spinta dalla lobby delle armi: la paura di essere attaccata nella tua stessa casa ti rende incline a volere una pistola.

Conflitto e cooperazione

Big datile analisi vengono utilizzate sia nelle campagne pubblicitarie che in quelle elettorali. Con il sistema di controllo sociale Sesame Credit, che è attualmente in fase di implementazione in Cina, tutto ciò che fai viene catturato e restituito a un sistema di punti che determina se ci si può fidare e quindi apre e chiude letteralmente le porte della società. Anche in Occidente è impossibile per l'individuo controllare il mercato dei data broker, che vendono enormi raccolte di informazioni che in linea di principio sono anonime, ma che sono facili da hackerare.

Nei social media come Facebook, ci scambiamo informazioni su noi stessi per l'accesso al servizio. Questo potrebbe essere un affare ragionevole, dice Fry – ma se lasci che un'azienda sanitaria scansiona il tuo DNA in cambio di servizi medici, spesso non sai cosa comporterà il baratto, soprattutto perché le normative sono tipicamente basate sugli sviluppi tecnologici.

Se gli algoritmi e noi vogliamo vivere bene insieme, dobbiamo entrambi imparare av og om loro, sottolinea Fry: Solo così si può capire quando la collaborazione è fruttuosa e quando si deve lavorare separatamente. Il conflitto e la frustrazione con i programmi per computer dovrebbero essere sfruttati "coabitazione-terapeutica": forniscono un'opportunità per migliorare la relazione – e per rendere i sistemi più aperti e più cooperativi. Una rottura completa con l'intelligenza artificiale sta diventando un'alternativa sempre meno rilevante, che di per sé è altamente stimolante.

Leggi anche: Idiozia artificiale e intelligenza naturale

Anders Dunker
Filosofo. Critico letterario regolare a Ny Tid. Traduttore.

Potrebbe piacerti ancheRELAZIONATO
Consigliato

Tutti contro tutti

RIFUGIATI: L'unità è polverizzata, tutti pensano solo a cavarsela da soli, sopravvivere, strappare un boccone in più, un posto nella coda del cibo o nella coda del telefono.

Molti conservatori norvegesi faranno un cenno di apprezzamento a Burke

UNA DOPPIA BIOGRAFIA: Dagli anni '1950, le idee di Burke hanno subito una rinascita. L'opposizione al razionalismo e all'ateismo è forte tra i 40-50 milioni di cristiani americani evangelici.

Un cluster agricolo – un complesso industriale all'avanguardia

PAZZO: Il problema è l'accesso al cibo. Tutti devono mangiare per vivere. Se vogliamo mangiare, dobbiamo comprare. Per acquistare dobbiamo lavorare. Mangiamo, digeriamo e cagiamo.

La dittatura della virtù

CINA: Il Partito comunista cinese si vanta oggi di essere in grado di riconoscere uno qualsiasi degli 1.4 miliardi di cittadini del paese in pochi secondi. L'Europa deve trovare alternative alla crescente polarizzazione tra Cina e Stati Uniti.

La protesta può costarti la vita

HONDURAS: La pericolosa ricerca della verità dietro l'assassinio dell'attivista ambientale Berta Cáceres di Nina Lakhani finisce in più domande che risposte.

Il legante culturale

ROMANZO: DeLillo mette in scena una sorta di stato generale, paranoico, un sospetto che ha portata globale.