Anche il Papa chiede un organismo internazionale per sorvegliare l’etica dell’intelligenza artificiale. Serve davvero? E chi lo controllerà?
di Maurizio Crippa
Se fosse data un’assicurazione, anche solo informale, che poi a capo dell’organismo internazionale per controllare i risvolti etici dell’intelligenza artificiale non verrà messo padre Spadaro SI, antesignano in tempi non sospetti della “cyber-teologia”, l’appello lanciato da Papa Francesco potrebbe anche convincere. Ha scritto nel suo messaggio per la prossima Giornata della pace: “Occorre rafforzare o, se necessario, istituire organismi incaricati di esaminare le questioni etiche emergenti e di tutelare i diritti di quanti utilizzano forme di intelligenza artificiale o ne sono influenzati”. Non la prenda a male, caro Spadaro, qui ci piace scherzare. E a dirla tutta, per tenerci sul filo del disincanto, potremmo dire che il gran dibattito mondiale – fu uno degli ultimi interessi di Kissinger, e persino il Pontefice ne fa oggetto di riflessione sulla “pace” e non, che so, sulle “comunicazioni sociali” – e cioè il tema dell’etica (necessaria) per gestire l’intelligenza artificiale, un pochino fa ridere. Troppo zelo, direbbe Talleyrand. O anche spaventare, a partire da quel “non è sufficiente nemmeno presumere”, così poco ben disposto verso le virtù dell’animo umano, buttato lì da Bergoglio come un verdetto di condanna predittiva. Per non inabissarsi nel cupo Maelstrom dell’Algoritmo, o levitare fino alle vette della teologia, le cose si assomigliano, la prima precauzione è stare ai fatti. Le IA sono macchine, processori di dati che funzionano meglio di tutti gli altri (“scorciatoie”, le ha chiamate lo studioso Nello Cristianini), ma non creano pensieri, si limitano a elaborare tutto ciò che è stato già pensato. Come i frullatori gastronomici, il risultato dipende da quel che ci si mette dentro. Quindi più che “l’etica”, intesa come ipotetica “bontà delle intenzioni” di chi sforna il risultato, c’è un problema di controllo di procedure. Ieri, in casuale o elettiva sintonia col Papa, anche Vito Mancuso, pure lui formato negli algoritmi teologici, ha affrontato l’argomento sulla Stampa. Idee molte, colpisce questa: “Fino a quando l’IA è usata dai ricercatori nei laboratori, dai medici negli ospedali”, insomma da etici autorizzati, tutto bene. “Maneggiata però da esseri umani immaturi e imbarbariti può risultare deleteria”. Non la pensano così solo Mancuso e il Papa, ovvio. Ma il tema è quello. Il Papa parla di “un dialogo interdisciplinare finalizzato a uno sviluppo etico degli algoritmi – l’algor-etica”, e la parola è azzeccata. Suggestivo anche, nel suo stile terragno, il giudizio sugli effetti del machine learning e del deep learning: “Questi strumenti possono ‘allucinare’, cioè generare affermazioni che a prima vista sembrano plausibili, ma che in realtà sono infondate o tradiscono pregiudizi”. Non c’è dubbio che grandi problemi esistano, soprattutto per le possibilità di manipolazione che possono incidere addirittura sulla democrazia. Sistemi regolatori dovranno essere trovati. Ma il rischio del troppo zelo si pone davanti a una semplice domanda: chi controllerà i controllori? E se è in un certo senso più facile (fa ancora parte dell’intelligenza che conosciamo) stabilire quali criteri etici dovrà rispettare “l’organismo” regolatore, più difficile sarà giudicare quali ingredienti entreranno o saranno espulsi dagli algoritmi. Chi valuterà? Quale attendibilità avranno codesti controlli etici? Forse – come inizia a pensare anche qualche addetto ai lavori – è meglio lasciar fare al mercato, e alla libera scelta degli “umani” di utilizzare ciò che apparirà solido e utile, e scartare il resto.