Chi decide alla fine
Quando si tratta di proteggere la popolazione, le decisioni sono di solito di vasta portata. Ogni aiuto è ben accetto, anche quello dell'intelligenza artificiale.
Gli incendi boschivi sono sempre più fuori controllo, come dimostrano i recenti esempi in California e in Australia. Molti vigili del fuoco combattono senza sosta contro le fiamme, ma non solo con l'acqua o con il fuoco controllato. La digitalizzazione si è fatta strada anche qui. Sistemi di geoinformazione, webcam e droni sono oggi pilastri importanti nella lotta e nella previsione degli incendi boschivi. Ma quando si generano molti dati, le competenze umane raggiungono rapidamente i loro limiti. "L'intelligenza artificiale è sempre salariale quando ci sono molti dati", afferma Benjamin Scharte, responsabile del team Rischi e resilienza del Center for Security Studies (CSS) all'ETH di Zurigo. Insieme al suo collega Kevin Kohler, ha analizzato l'uso dell'IA nella protezione civile.
"Diventa eccitante quando si possono usare gli algoritmi per fare previsioni", aggiunge Kohler. In quale direzione si svilupperà il fronte del fuoco? Dove abbiamo bisogno di un controfuoco controllato? Per rispondere a queste domande, si possono usare strumenti di modellazione basati sull'intelligenza artificiale per riassumere tutti i dati disponibili, dalle previsioni del tempo alla durata della siccità, dalla direzione del vento alla quantità di possibile combustibile. Grazie alle previsioni, la risposta alla crisi può essere più efficiente. Idealmente, le previsioni servono anche come misura preventiva.
L'intelligenza artificiale ha un significato particolare anche nella protezione civile, perché in alcune circostanze ogni minuto è importante o può essere una questione di vita o di morte. Quando gli esperti devono prendere una decisione di vasta portata in un lasso di tempo molto breve, sono grati per qualsiasi aiuto che permetta di basare la decisione su dati migliori. Tuttavia, la qualità dei dati è importante. "Non importa quanto sia intelligente il mio algoritmo, se non posso alimentarlo con i dati giusti per la crisi, mi sarà poco utile in caso di emergenza", sottolinea Kohler.
Anche se i dati sono ottimali, non potranno mai sostituire completamente molti anni di esperienza degli esperti. La questione se la decisione finale debba essere presa dall'uomo o dalla macchina è quindi molto complessa. Può darsi che l'algoritmo causi meno danni economici o meno lesioni rispetto all'uomo in tutti i casi, ma che in singoli casi prenda una decisione che a noi sembra inaccettabile. "Allora anche noi, come società, avremo difficoltà in futuro a lasciare la decisione a una macchina autonoma", è convinto Scharte.
Una questione di fiducia
Ci si chiede quando accettare un processo decisionale autonomo da parte di una macchina. Scharte e Kohler concordano: "Nel campo della protezione civile, dove a volte sono in gioco la vita e la morte, gli esseri umani dovrebbero essere coinvolti nel processo decisionale e non dovrebbero esserci decisioni completamente autonome".
La fiducia nell'algoritmo gioca un ruolo centrale. Perché dalla fiducia deriva l'accettazione. Entrambe aumentano se un algoritmo è comprensibile. Ad esempio, se un medico riesce a capire come funziona un algoritmo, si fiderà di più e sarà più propenso a utilizzarlo nel suo lavoro. Numerosi studi lo hanno dimostrato. Tuttavia, Scharte avverte: "Una tracciabilità trasparente non aumenta necessariamente la sicurezza". Nel caso di pericoli causati dall'uomo, come la criminalità informatica o il terrorismo, la tracciabilità può addirittura essere uno svantaggio. "Se è pubblicamente rintracciabile il modo in cui un algoritmo valuta i modelli di comportamento sospetto, è più facile che venga ingannato da malintenzionati", avverte l'esperto di sicurezza.
Questo testo è pubblicato nell'attuale numero dell'ETH Magazine. Globo pubblicato.