Una volta, agli albori della mia carriera da Ingegnere, mi sono trovato di fronte a un curioso interrogativo che ogni tanto mi si ripresenta: è possibile lavorare allo sviluppo di una tecnologia senza considerarne l’impatto sul mondo reale?
Lo spunto che all’epoca diede il via a questa riflessione (che si mutò in una conversazione sui massimi sistemi con un paio di colleghi) non è lungo da spiegare: l’azienda per cui lavoro e già allora lavoravo si occupa in sintesi di robot che preparano dosi molto, molto precise di farmaci liquidi. I vantaggi di un dosaggio corretto per i pazienti sono facili da intuire, si tratta di una tecnologia che aiuta tante persone in numerosi ospedali nel mondo. Tuttavia, c’è anche al di fuori degli ospedali una categoria di persone che potrebbero ricevere un “beneficio” da una macchina in grado di preparare dosi molto precise: si tratta dei condannati a morte per iniezione letale. La procedura, legale in diversi Stati del mondo, prevede infatti la somministrazione in sequenza per via intravenosa di tre sostanze in proporzioni ben precise, ed è opinione diffusa che solo un accurato dosaggio sia in grado di dare ai condannati una morte indolore (ci sono alcuni dubbi sia possibile renderla davvero indolore, per inciso, ma non approfondiamo in questa sede). Il dubbio che mi posi, fortunatamente solo per una divagazione teorica e mai trovandomi di fronte al caso concreto, era il seguente: ipotizziamo che io sia contrario alla pena di morte ma sappia che installando una delle nostre macchine esista la possibilità di ridurre le sofferenze dei condannati, in quel caso quale sarebbe la cosa giusta da fare, supportare il progetto o boicottarlo? Da un lato starei lavorando a uno strumento letale, dall’altro si tratterebbe di rendere meno atroce il destino già segnato di una persona che comunque non ha scampo. Al di là del caso specifico, si può ignorare la possibile applicazione controversa di una tecnologia nel momento in cui si decide di occuparsene, focalizzandosi solo sulle sue applicazioni positive?
Il motivo per cui mi torna in mente questa storia è una recente perplessità sollevata da diverse persone nel mondo dopo la pubblicazione di uno studio della Stanford University, studio che descrive le performance di un algoritmo di image recognition in grado di valutare sorprendentemente bene l’orientamento sessuale delle persone sulla base di immagini del loro volto. Si tratta di uno studio che ha qualche bias, dal momento che sono state utilizzate foto profilo prese da siti di incontri (dunque è molto probabile che nelle fotografie le persone abbiano in qualche modo esplicitato le proprie preferenze sessuali enfatizzando alcuni aspetti a discapito di altri), però rimane un risultato abbastanza significativo. Il campanello d’allarme suonato nella testa di alcuni alla pubblicazione dello studio è relativo alla possibilità non proprio remota che qualcuno decida di usare un software con capacità simili per riconoscere cittadini omosessuali in quei Paesi dove le relazioni non eterosessuali sono illegali: a oggi, in otto Paesi del mondo l’omosessualità è punibile con la pena di morte. E qui se vogliamo ci colleghiamo tristemente all’apertura del post. Nel caso non riteniate che mantenere la privacy relativa all’orientamento sessuale sia una questione seria, sappiate che a quanto pare anche l’affiliazione politica pare essere riconoscibile dallo stesso algoritmo: un altro aspetto che può essere abbastanza compromettente per le persone in Paesi non propriamente democratici. Quindi che si fa? Smettiamo di lavorare ad algoritmi simili (frenando il progresso) oppure li miglioriamo (creando un possibile strumento di repressione delle libertà individuali)?
Si tratta di un dilemma che chiunque abbia la possibilità, la volontà e le capacità di creare qualcosa dovrebbe porsi: in che misura il giudizio etico può essere sospeso quando si lavora nel campo della tecnologia? Si tratta di un dilemma che ha sicuramente tormentato molti dei maggiori scienziati negli ultimi secoli: penso ad Alfred Nobel (inventore della dinamite) e naturalmente a Julius Robert Oppenheimer, l’uomo che allo scoppiare della prima bomba atomica dichiarò di essere diventato “Death, the destroyer of worlds“. Tuttavia non si tratta a mio avviso di un dubbio riservato solo a questi personaggi grandiosi: tutti nel nostro piccolo abbiamo la possibilità di fare danni giganteschi, e allo stesso tempo possiamo fare qualcosa di molto buono senza poi finire necessariamente sui libri di storia.
Penso non esista una risposta univoca a questi interrogativi: dobbiamo necessariamente trovare un compromesso, anche perché fissarci su un aspetto delle nostre azioni ignorando gli altri ci farebbe cadere nella più antica delle trappole, la paura del futuro. Viviamo costantemente, noi costruttori, in un koan senza soluzione apparente: proprio come in un koan dobbiamo prepararci a incontrare il Buddha, e se lo incontriamo dobbiamo essere pronti a ucciderlo.
Ora per favore fate partire questa canzone, e non soffermatevi sulla foglia: finireste per perdere di vista l’albero.
2 Comments