Laura Nolan era, fino a un anno fa, una degli ingegneri informatici di punta di Google; esperta di algoritmi e intelligenze artificiali, ha dato le dimissioni nel 2018 perché «preoccupata dalle potenziali derive» della sua ricerca sul riconoscimento facciale. Adesso, in un’intervista al Guardian, Nolan lancia un allarme molto esplicito: se non ci muoviamo a regolarmentarli, i robot da guerra ci uccideranno tutti.
Nolan è solo una delle circa 3.000 persone che hanno firmato una petizione interna contro Google e in particolare contro il Maven Project, il cui scopo era (la multinazionale dichiara di averlo sospeso) migliorare gli algoritmi di riconoscimento facciale dei droni da guerra, “istruendoli” con migliaia di immagini per insegnare loro a distinguere tra un oggetto e un bersaglio umano – lavoro che oggi è in mani umane, ed è quindi lungo e laborioso, e che potrebbe diventare infinitamente più rapido se gestito da un computer.
Rapido e pericoloso, secondo Nolan, che è attivista e portavoce dell’iniziativa Campaign to Stop Killer Robots: l’idea dell’esercito degli Stati Uniti, per il quale Google avrebbe dovuto condurre la ricerca, è infatti quella di eliminare gradualmente i droni comandati a distanza e sostituirli con macchine pienamente autonome, in grado di prendere decisioni e agire senza input umano. Una soluzione che, secondo Nolan, non tiene conto della complessità del nostro comportamento e dei contesti nei quali ci troviamo: come fa, per esempio, un robot a cogliere la differenza tra un gruppo di soldati armati e uno di semplici cacciatori? Il rischio principale è la perdita di vite innocenti, ma c’è anche quello di causare incidenti diplomatici o di peggiorare situazioni già complicate e instabili, portando a un’escalation delle tensioni e magari all’esplosione di un conflitto armato. Se proprio dobbiamo continuare a fare la guerra, insomma, meglio assumerci le nostre responsabilità e non demandare tutto a un algoritmo.