Per comprendere la genesi e lo scopo della prima bozza del codice etico per la progettazione di sistemi di intelligenza artificiale, elaborato da un team di esperti per la Commissione Europea, pubblichiamo un intervento di Luca Bolognini, presidente dell’Istituto Italiano per la Privacy e autore di “Follia Artificiale” (Rubbettino Ed., 2018).
Nella primavera del 2018, la Commissione Europea ha selezionato 52 intelligenze umane (l’AI HLEG) per fronteggiare la sfida etica dell’Intelligenza Artificiale. Questi esperti internazionali, provenienti dall’industria privata, dall’accademia e dalle istituzioni pubbliche, hanno dato vita a un gruppo di alto livello con il primo obiettivo di redigere delle linee guida per una Intelligenza Artificiale affidabile. Il testo, ancora in bozza, è stato pubblicato il 18 dicembre 2018 e per un breve periodo resterà in consultazione pubblica e aperto ai commenti.
Non si tratta del “solito” codice etico intriso di principi generalissimi sul tema, come se ne sono già visti in passato: esso contiene, anzi, numerose indicazioni utili all’applicazione pratica dei principi fondamentali del diritto europeo nello sviluppo di sistemi intelligenti.
Le linee guida comprendono anche una checklist adatta a verificare sin dalla progettazione (“by design”) l’aderenza alle raccomandazioni etiche della Commissione Europea. È sicuramente un passo in avanti rispetto ad altre esperienze analoghe condotte in giro per il mondo, rimaste tuttavia troppo lontane dalla realtà tecnologica concreta.
Il documento in questione, oltre a raccomandare “robustezza e sicurezza dei sistemi”, punta principalmente sulla centralità dell’essere umano nel rapporto con l’Intelligenza Artificiale: prima devono venire la dignità e la libertà umane, anche e soprattutto quando entrano in gioco gli algoritmi. L’autonomia delle persone deve sempre prevalere sull’autonomia artificiale, pertanto deve essere garantito un potere di supervisione da parte degli uomini sulle macchine, in modo da limitare le decisioni di queste ultime. Il “super-amministratore di sistema” deve insomma rimanere umano.
Come premessa logica, a maggior ragione, gli algoritmi e le loro scelte/evoluzioni devono risultare comprensibili agli esseri umani, e non sembra esserci spazio, almeno nella prospettiva etica europea, per forme di Intelligenza Artificiale profonda, oscura e insondabile, non trasparente e chiaramente tracciabile dagli umani.
Sono diversi gli aspetti positivi in queste linee guida, che posizionano l’Unione Europea all’avanguardia nella riflessione etico-umanistica sul progresso tecnologico mondiale.
Resta tuttavia un’insufficienza di fondo: si tratterà di un codice di regole aperto all’adesione volontaria da parte di governi, ricercatori e imprese, e non di norme vincolanti, e ci si chiede quali effetti potrà avere sui grandi colossi tecnologici multinazionali, ormai più influenti di interi Stati, o sui sistemi tecnologici esperti che auto-evolvono.
Inoltre, il documento rischia di peccare d’ingenuità in alcuni punti, come quando indica la cosiddetta “rule of law by design”, cioè la necessità di rispettare lo Stato di diritto – e quindi le Costituzioni e le Leggi – sin dalla progettazione di nuovi sistemi di Intelligenza Artificiale, anche calandone i precetti nei codici informatici: come se, in futuro, il pericolo non fosse legato proprio alla sostituzione delle leggi e dei codici – ancora frutto, oggi, di legislatori umani – con leggi approvate da legislatori artificiali e non umani.
Più che di “rule of law by design” avrebbe dunque senso parlare di “rule of human law by default”, cioè di Stato di diritto umano per impostazione predefinita, scongiurando scenari distopici di membri-robot di Parlamenti e governi: e chiaramente non sarebbe una carta “soft” e di autoregolamentazione, come queste linee guida, la sede corretta per fissare un “principio salva-umanità”, bensì le stesse Costituzioni e i Trattati internazionali. Insomma, si tratta di linee guida forti sul piano tecnico, ma deboli su quello politico e dei rapporti di forza.