Abbonamento 790/anno o 190/trimestre

Un'intelligenza artificiale etica

TECNOLOGIA / L'intelligenza artificiale può sostituire il giudizio umano imperfetto e consentire la risoluzione delle controversie sociali attraverso sistemi decisionali automatizzati?




(QUESTO ARTICOLO È TRADOTTO DA Google dal norvegese)

L'uso di routine e algoritmor "all'aperto" per misurare, quantificare e ottimizzare tutti gli aspetti della nostra vita ha portato sia a maggiori preoccupazioni pubbliche sia a una maggiore attenzione da parte delle autorità di regolamentazione. Tra l'elenco delle soluzioni troviamo alcune idee che mancano di credibilità, non ultime quelle che vengono promosse con l'etichetta "etico intelligenza artificiale (IA etica).”

È comprensibile che le autorità pubbliche vogliano arginare le conseguenze indesiderate di alcune forme di intelligenza artificiale, in particolare quelle legate all'aumento della sorveglianza, alla discriminazione nei confronti delle minoranze e alle decisioni amministrative illecite. Ma anche i governi a corto di liquidità sono ansiosi di abbracciare chiunque tecnologia che possono fornire guadagni di efficienza all'interno dei servizi pubblici, l'applicazione della legge da parte della magistratura e altri compiti. L'impasse tra queste due priorità ha spostato il dibattito dalla legge e dalla politica, verso la promozione di un miglioramento volontario delle pratiche e degli standard etici all'interno del settore.

L'automazione sta accelerando

Finora questa spinta, sostenuta da enti pubblici diversi come la Commissione Europea e il Dipartimento della Difesa Usa, ruota attorno al concetto di “giustizia algoritmica”. L'idea è che il giudizio umano imperfetto può essere contrastato e che le controversie sociali possono essere risolte attraverso sistemi decisionali automatizzati – in cui gli input (set di dati) e i processi (algoritmi) sono ottimizzati in modo che possano riflettere determinati valori vagamente definiti, per esempio "giustizia" o "credibilità". In altre parole, l'enfasi non è sulla politica, ma sulla messa a punto del meccanismo, ad esempio rimuovendo la pre-distribuzione nei set di dati esistenti o creandone di nuovi.

Mascherare conflitti politici più profondi dietro un velo di oggettività mediata dalla tecnologia non è una novità. Ma poiché l’automazione continua ad accelerare, non è una pratica su cui possiamo permetterci di chiudere un occhio. Più i politici si concentrano sulla promozione di un’etica volontaria dell’IA, più è probabile che rispondano in modi distruttivi e antidemocratici e che inoltre ci distraggono da ciò che sta realmente accadendo.

La distrazione arriva, ad esempio, quando etico l’intelligenza artificiale presuppone che si possa elaborare una pratica geograficamente imparziale, che poi può essere ripetuta con una miriade di parametri diversi. Forse l’idea è di farlo attraverso un forum multilaterale, dove un gruppo di esperti apparentemente versatile si riunirà per elaborare linee guida globali, per sviluppare e gestire l’IA in modo etico. Quindi cosa avrebbero inventato?

"Riciclaggio etico"

Centro Berkman Klein per Internet e Società Università di Harvard ha recentemente pubblicato una revisione di circa 50 "principi dell'IC" emersi finora dal dibattito più ampio. Gli autori sottolineano che la conversazione tende a ruotare attorno a otto temi: privacy, responsabilità, sicurezza, trasparenza e spiegabilità, equità e non discriminazione, controllo umano della tecnologia, responsabilità professionale e promozione dei valori umani. In particolare mancano due elefanti nella stanza: il potere asimmetrico strutturale e il disastro climatico che incombe all’orizzonte. Queste omissioni mostrano che gli esperti chiamati a fornire un quadro per un’IA etica operano in un circolo relativamente chiuso e hanno difficoltà a fornire consigli che catturino lo spirito del tempo.

I governi a corto di liquidità sono anche ansiosi di abbracciare qualsiasi tecnologia in grado di garantire incrementi di efficienza.

Il perseguimento di un’IA etica può anche causare l’erosione della capacità amministrativa del settore pubblico. Ad esempio, avere La Commissione Europea, dopo aver tentato di partecipare al dibattito con un gruppo di esperti del KI, hanno ricevuto massicce critiche, sostenendo che avrebbero minato la loro stessa credibilità in termini di capacità di assumere un ruolo guida in questo campo. Uno dei membri del gruppo, Thomas Metzinger presso l'Università di Magonza, ha addirittura respinto la versione finale delle linee guida proposte come esempio di "riciclaggio etico". Allo stesso modo, il gruppo per i diritti ha AlgoritmoGuarda  si è chiesto se esista una “IA affidabile”, dato che non è chiaro chi – o cosa – dovrebbe avere l’autorità per definire tali questioni.

Qui possiamo vedere come il lavoro ben intenzionato di dirigere lo sviluppo dell’intelligenza artificiale possa fallire. Finché la conversazione resta vaga, nessuno può opporsi in linea di principio al concetto di affidabilità. I decisori possono iniziare a ignorare decenni di risultati ottenuti nel campo della scienza, della tecnologia e della società, della ricerca e dell’innovazione responsabili e dell’interazione uomo-dati. Dopotutto, non esiste un elenco definitivo di linee guida utilizzabili a prescindere dal livello politico, per il semplice motivo che l’intelligenza artificiale etica è già in primo luogo un obiettivo politico praticamente irrealizzabile.

Vita lavorativa

Finalmente. Se dedichiamo troppa attenzione all’etica dell’IA, rischiamo di spostare la discussione lontano da forme di controllo più democratiche. La storia di una costante espansione dell’intelligenza artificiale ha guadagnato terreno, da quando il mondo degli affari ha conquistato sempre più istituti di istruzione superiore e i loro partner. Il dialogo sposta le arene pubbliche aperte verso i trinceramenti chiusi della competenza, del privilegio e del globale tecnocrazia.

Il mondo degli affari privati ​​prende due piccioni con una fava: trattenere status quo ed evitare cambiamenti nella regolamentazione permissiva di oggi, le aziende tecnologiche possono presentarsi come socialmente responsabili. Per la maggior parte delle persone, tuttavia, le sequenze della moglie non sono così attraenti. La falsa impressione che esista già un consenso etico sull’intelligenza artificiale preclude il dibattito politico in anticipo, il nucleo stesso della democrazia. Alla fine, le tensioni sociali si intensificano, mentre la fiducia nelle autorità si sgretola. Una volta stabilito il quadro delle pratiche eticamente preferibili, ai sistemi automatizzati verrà data l’apparenza di conoscenza oggettiva, nonostante siano esenti da qualsiasi esame critico significativo. Le loro decisioni saranno il risultato di leggi severe, senza spazio per contesto, sfumature, appello e riconsiderazione.

Responsabilità

Con l’inizio del nostro nuovo decennio, è chiaro che la politica sull’IA deve andare oltre le banalità sui quadri etici volontari. Come Frank Pasquale dell’Università del Maryland, la responsabilità algoritmica dovrebbe avvenire in due fasi, con la prima focalizzata sul miglioramento dei sistemi esistenti, mentre la seconda solleva questioni fondamentali sul potere e sulla governance.

Per il futuro, i politici dovrebbero abbandonare la storia in cui l’intelligenza artificiale è stata trasformata in qualcosa di eccezionale. Dobbiamo sperare che il circolo chiuso dei nuovi esperti di etica dell’IA venga spezzato per far posto a coloro che sono più direttamente colpiti dai processi dirompenti dell’intelligenza artificiale e dell’automazione: gli utenti finali e i cittadini che i governi hanno il dovere di proteggere e servire.

 

        Tradotto da Anders Dunker

Maciej Ku Ziemia
Maciej Kuziemski
Da Project Syndicate, partner di MODERN TIMES

Potrebbe piacerti anche