AI IN AZIONE – l’intelligenza artificiale e l’etica degli algoritmi: Intervista a Padre Benanti

L’intelligenza artificiale può salvare vite e amplificare le nostre capacità, ma non deve sostituirsi all’uomo nel suo decidere. Possiamo lasciare delle macchine “intelligenti” decidere da sole? Decidere il destino scolastico di un ragazzo, o a chi dare un prestito in banca, o il tipo di terapia da prescrivere? Per il progetto Ai in azione, con Padre Paolo Benanti, frate francescano, docente di Teologia morale e Bioetica alla Pontificia Università Gregoriana e accademico della Pontificia Accademia per la Vita, guardiamo a come sviluppare un’intelligenza artificiale etica.

Padre Benanti ha ideato per questo un neologismo, “algoretica“, recentemente inserito dall’Accademia della Crusca tra le nuove parole. L’algoretica è un codice etico pensato dagli uomini, ma “capito” e computato dalle macchine: valori etici integrati ai valori numerici che nutrono l’algoritmo, al fine di creare macchine che possano farsi strumenti di umanizzazione del mondo.

I sistemi di intelligenza artificiale, infatti, producono effetti sull’ambiente in cui si applicano, dando vita a realtà complesse le cui conseguenze possono essere difficili da prevedere. Perché i sistemi di intelligenza artificiale che elaborano dati prodotti dalla nostra esistenza online, non si limitano a predire comportamenti (il prossimo libro che acquisterò), ma producono e orientano il nostro agire, rischiando di diventare grandi conformatori sociali a scapito del pluralismo e della scoperta.

Un anno fa a Roma c’è stata una “chiamata” a tutti gli attori del sistema, organizzazioni, imprese, governi, istituzioni, per un senso di responsabilità condivisa. La Pontificia Accademia per la Vita insieme a Microsoft, IBM, FAO, Governo italiano, hanno firmato un documento, la Rome Call for AI Ethics, con i principi che devono guidare lo sviluppo dell’intelligenza artificiale, come la trasparenza, l’inclusione, la responsabilità, l’imparzialità, l’affidabilità, la sicurezza e la privacy.

Avere chiaro qual è il bene che vogliamo realizzare e adattare la tecnologia rispetto a questo, insomma. La Rome Call for AI Ethics è stata anche individuata dalla Stanford University come uno dei 5 topic più rilevanti in ambito AI del 2020 secondo l’AI Index Report, stilato annualmente da HAI, Institute for Human-Centered AI.

Il pericolo di un intelligenza artificiale diffusiva e senza controllo può dare vita a una società che pone tutta l’attenzione al centro di una ipotetica curva gaussiana, dimenticando le code, gli estremi della curva. La ricchezza di un Paese è nell’inclusione e nell’accettare le diversità. Non possiamo permettere che gli estremi, come ad esempio i bambini e gli anziani, siano esclusi.

Il primo principio della Call è proprio questo: nessuno venga lasciato indietro, non uno di meno. L’universo digitale non può essere basato solo sui dati, ma deve includere anche i diritti. È importante individuare quei diritti umani da garantire affinché la macchina non violi l’uomo.

Un uomo tutelato e aiutato a essere se stesso.

DI FELICIA PELAGALLI

Articoli Correlati