Compreresti un’automobile il cui pilota automatico potrebbe scegliere di sacrificare te per salvare la vita di due passanti? E se provassi affetto per loro, o se fossero invece i responsabili di ciò che sta per succedere?

L’etica dell’intelligenza artificiale è, sin dagli albori di quest’ultima, un tema estremamente dibattuto dagli addetti ai lavori, ma spesso eclissato dalle mirabolanti imprese compiute dai sistemi intelligenti agli occhi del grande pubblico. Uno dei settori più promettenti e più esposti allo stesso tempo è la robotica, che negli ultimi anni è passata dal cercare disperatamente di evitare cadute rovinose alle proprie creazioni, al produrre ballerini di Rythm&Blues più abili del 70% della popolazione mondiale, come dimostra il video pubblicato dalla Boston Dynamics alla fine dello scorso anno[1].

Come ci insegna lo zio Ben di Spider-Man! però, «da un grande potere derivano grandi responsabilità»[2], e le innumerevoli applicazioni delle nuove tecnologie non fanno eccezione: uno dei tratti distintivi degli esseri intelligenti, infatti, è la capacità di reagire agli stimoli esterni sulla base dei dati acquisiti e processati in tempo reale, ed è così che l’enorme vantaggio di poter programmare un sistema veloce nel prendere decisioni seguendo schemi prestabiliti costringe i produttori a chiedersi, d’altro canto, quali debbano essere tali schemi.

Tutto ciò sta già accadendo attorno a noi. Pensiamo ai software per il riconoscimento delle emozioni: bisogna sapere che hanno raggiunto performance sorprendenti, come risulta particolarmente chiaro, ad esempio, sul sito di MorphCast[3] (sul quale ci si può divertire gratuitamente e senza temere per la propria privacy) e che presto saranno implementate in robot umanoidi che si interfacceranno con noi in modo più efficace e vario, a seconda del nostro stato d’animo.

Come vi sentireste se il vostro nuovo robot da compagnia, percependovi un po’ giù di tono, vi offrisse uno di quei dolci al pistacchio che ordinate una volta al mese su Amazon, e reagisse prenotando a sorpresa un pranzetto per due al ristorante di sushi nel quale avete incontrato per la prima volta il vostro attuale partner, approfittando di un buco in comune nella vostra agenda personale? Forse il vostro morale si risolleverebbe, ma a quale prezzo? E se quel pranzo aveste voluto farlo dal messicano a un isolato da casa, che non è su JustEat, e rivedere un amico di vecchia data che non seguite sui social? Che domande, avreste potuto sicuramente parlarne al vostro assistente digitale! Ma quante, di tali informazioni, si è disposti a condividere con l’azienda produttrice, al fine di rendere più soddisfacente il servizio ricevuto?

Il messicano non ha l’all you can eat, vero, ma non è questo il punto. Proviamo così: concentriamoci sui veicoli a guida autonoma. Se ne parla moltissimo, ma stupisce ogni volta ricordare che in media, ogni giorno, più di 3500 persone perdono la vita a causa di incidenti stradali, la maggior parte dei quali dovuti a distrazioni del conducente o a infrazioni del codice della strada, prima su tutte la guida in stato di ebbrezza[4]L’inquinamento provocato dall’elevato numero di veicoli e dalle strutture e infrastrutture destinate a ospitarli, inoltre, verrebbe notevolmente ridotto se, invece di avere centinaia di veicoli privati fermi in un parcheggio per buona parte della giornata, un esiguo numero di mezzi pilotati da un’intelligenza artificiale soddisfacesse i bisogni di più passeggeri, in base alla sua posizione attuale e alle richieste ricevute, e gli spazi superflui venissero adibiti alla costruzione di parchi e alla produzione di energia rinnovabile.

Dove si nascondono le responsabilità qui? Nella scelta della reazione che ci aspettiamo venga assunta dal nostro pilota automatico nel caso in cui dovesse gestire una situazione non ordinaria o, addirittura, mai affrontata prima da nessun altro veicolo con cui abbia mai interagito.

Facciamo un passo indietro e ripartiamo da un classico esperimento mentale di filosofia etica, formulato negli anni Settanta: il problema del carrello ferroviario[5]. Nella sua formulazione più semplice, esso prevede la presenza su delle rotaie di un tram che non può essere arrestato e si dirige verso cinque persone che non avrebbero scampo; l’unica alternativa che ci viene fornita è la possibilità di azionare un deviatoio che reindirizzi il tram verso una persona, anch’essa impossibilitata ad evitare il peggio, risparmiando le prime cinque. Chiaramente, il quesito non prevede una risposta corretta, ma è estremamente utile per riflettere sul fatto che situazioni simili potrebbero effettivamente verificarsi, seppur con una probabilità molto più bassa rispetto a quella di incidente oggi.

Assumendo, poi, che ciò non accada nel caso in cui il sistema sia implementato in modo particolarmente efficiente, altri quesiti sorgono spontanei: ad esempio, è possibile comunicare al veicolo che ci si trova in una condizione di emergenza e richiedere che alcune norme vengano violate per perseguire un bene più alto? A quali condizioni? Se si trattasse di condizioni di salute, il veicolo sarebbe in grado di verificarle e, eventualmente, fornire primo soccorso? Qual è il giusto compromesso tra efficacia ed etica? A queste e a molte altre domande cerca di rispondere la cosiddetta Machine Ethics (etica delle macchine), introducendo il concetto di Artificial Moral Agent (soggetto artificiale dotato di morale) e adattando i princìpi giuridici al mondo dell’Artificial intelligence[6]… Ma questa è un’altra storia, riservata ai più curiosi.

Spero che il sushi sia stato all’altezza delle 4.73 stelle su 5 del ristorante, le foto di quegli uramaki sembrano davvero invitanti ma negli ultimi 13 giorni le recensioni sono peggiorate dello 0.012%… Per stasera messicano con Max allora? Cucino volentieri io! Ah, un ultima cosa, mi imbarazza chiedertelo, ma sto imparando: selezioneresti dal menù la lingua parlata dal gatto? Non riesco a rilevarla automaticamente.


Fonti:
[1]Do you love me? 
[2]Stan Lee (testi), Steve Ditko (disegni); Spider-Man!, in The Amazing Spider-Man n. 15, Marvel Comics, agosto 1962.
[3]Morphcast 
[4]Road Traffic Injuries and Deaths—A Global Problem, in Center of Disease Control and Prevention
[5]Trolley problem, in Wikipedia 
[6]Ethics of Artificial Intelligence and Robotics, in Stanford Encyclopedia of Philosophy


Alfredo Petrella

Matematico per caso, aspirante tuttologo per scelta. Da piccolo adoravo smontare cose, gli arrosticini e il Gioco dei Perché; oggi a Padova mi occupo di Intelligenza Artificiale, con la speranza di riuscire a migliorare, un giorno, la qualità delle barzellette raccontate dagli assistenti vocali.

0 Comments

Lascia un commento

Avatar placeholder

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *