Condividi
Photo

di F. dalle Nogare – L’umanità si trova di fronte a una nuova e grave realtà: l’ascesa di armi autonome. Può sembrare una sceneggiatura hollywoodiana, ma il rischio è reale.

Nella nostra mente la guerra è qualcosa di reale,di atrocemente duro, qualcosa che l’uomo fa all’uomo, ci sono combattimenti, sudore e altro. Insomma la immaginiamo come una lotta per la vita. Ma gli esseri umani sono ormai lontani da guerre di questo tipo. Già oggi il processo decisionale in termini di vita e di morte viene effettivamente lasciato a sensori e software.

Ma che tipo di futuro incombe, se la vita umana è lasciata agli algoritmi? I robot e i sistemi informatici mancano della distinta e unica capacità umana di comprendere sia l’ambiente complesso in cui operano, sia le armi che stanno usando. Inoltre, i sistemi più complessi stanno diventando veramente autonomi grazie all’intelligenza artificiale.

La guerra non dovrebbe esistere tra le scelte possibili per risolvere un contenzioso, qualunque sia, ma di fatto è la cosa che ci riesce meglio.

La responsabilità delle decisioni di uccidere, ferire e distruggere dovrebbe rimanere agli umani?

È il soldato, non una macchina, che comprende la legge e le conseguenze della sua violazione e chi è responsabile di quell’azione. Questi obblighi non possono essere trasferiti su un programma per computer. I governi, con il contributo della società civile e dell’industria tecnologica, non devono perdere tempo nel concordare limiti all’autonomia nei sistemi balistici automatici.

I progressi tecnologici rappresentano grandi opportunità. Che si tratti di medicina, trasporti, agricoltura, commercio, finanza o praticamente qualsiasi altro dominio, la robotica, l’intelligenza artificiale e l’apprendimento automatico stanno avendo un effetto incredibile.

È logico che questa tecnologia sia presa in considerazione ai fini della sicurezza nazionale e della difesa, motivo per cui non dobbiamo sorprenderci se stiamo vedendo molti paesi investire pesantemente nell’IA e nei sistemi robotici militari con maggiore autonomia.

Nell’Aprile di quest’anno si sono riuniti a Ginevra un gruppo di esperti governativi incaricati di esaminare i sistemi di armi autonome. Il gruppo ha capito che il controllo deve rimanere nelle mani dell’uomo, non possiamo incaricare un robot.

Il prossimo Agosto ci sarà un’altra riunione, in cui i governi devono rispondere alla domanda più difficile: quale livello di controllo umano è necessario per garantire sia la compatibilità con le nostre leggi che l’accettabilità ai nostri valori?

La risposta è molto importante perché alcuni sistemi autonomi sono già in uso in circostanze limitate e per compiti molto specifici. Dopo l’attivazione da parte di un operatore umano, è il sistema d’arma che seleziona un bersaglio e lancia una contromossa.

Tuttavia, l’ambito in cui sarà possibile utilizzare sistemi basati su AI è molto più ampio. Potenzialmente si basa sulla tecnologia dei sistemi di “ausilio decisionale”, che analizzano i feedback video e rilevano possibili bersagli.

Con i nuovi progressi che avvengono a un ritmo vertiginoso, i governi, con il supporto della comunità scientifica e tecnica, devono intraprendere azioni urgenti per concordare i limiti che questi sistemi dovranno avere.

Tutto senza soffocare o rallentare il progresso tecnologico che porta evidenti benefici.

L’alternativa è la prospettiva profondamente inquietante di una nuova corsa agli armamenti e un futuro in cui le guerre sono combattute con algoritmi, con risultati incerti sia per i civili che per i combattenti.