NEWS:

Aeronautica, ecco come l’IA cambierà la ricerca e il soccorso

Alcuni esempi non fantascientifici di come cambierà il volto dell'Aeronautica militare

Pubblicato:10-05-2024 10:32
Ultimo aggiornamento:10-05-2024 10:32
Autore:

intelligenza artificiale
FacebookLinkedInXEmailWhatsApp

ROMA – “In ambito di ricerca e soccorso in zona di combattimento l’IA migliorerà moltissimo le cose perché avrà delle capacità percettive, ad esempio di analisi di immagini, sovraumane. E in futuro più lontano velivoli senza equipaggio – guidati dall’IA – possono portare soccorso riducendo il numero dei soccorritori”. Alcuni esempi non fantascientifici di come cambierà il volto dell’Aeronautica militare li ha descritti ieri Guglielmo Tamburrini, docente di etica delle macchine alla Federico II, in occasione dei 100 anni del Ruolo d’armi della Forza Armata.

Ma non è tutto ‘liscio’, su alcuni dati come il principio di non discriminazione l’IA “eredita”, spiega il docente, scelte umane che sono stati magari viziate da questo elemento e quindi “riproporrà le stesse ingiustizie”. Su tutto questo inoltre serve la vigilanza “della capacità di giudizio umana”. Un processo minato. “Previsione e suggerimento di risposte operative” rappresentano un’opportunità, ma chi prenderà le decisioni sarà sempre un essere umano? “Lo vogliamo- dice Tamburrini- ma non possiamo darlo per scontato. Ci sono molte insidie in questo rapporto uomo- macchina. Noi sappiamo dalla storia che l’automatismo delle macchine ha creato episodi di fuoco amico”, ha ricordato.

“L’IA è stata utilizzata per individuare target”, ricorda Tamburrini sottolineando che a capo del processo ci sono sempre specialisti umani che governano l’azione delle macchine secondo i principi della guerra giusta. “Che ci sia questa squadra è fondamentale ma non è sufficiente per garantire un controllo umano. L’IA ha un ritmo così incalzante che può mettere in difficoltà cognitivamente questa squadra a prendere decisioni a ragion veduta. E se c’è una pressione psicologica sulla produttività il rischio è che si riducano loro a rotelle della macchina, a un timbrificio”. “Il tempo è fattore a doppio taglio”, “con rischio nel dominio cyber di “escalation non intenzionale”.


Tanti i dubbi sul futuro e su questo inesorabile cambiamento. “Cosa sarà del guidacaccia- si chiede Tamburrini- quando avrà un IA e non un pilota? Se mai ciò accadrà, se lo vogliamo permettere…”. L’ insidia più grande sta proprio nel rapporto tra IA e responsabilità della decisione militare, spiega ancora il docente: “che è anche la dignità del militare: individuare un obiettivo e attaccarlo. Possiamo delegare questo a una macchina? La Croce Rossa ha portato un’importante proposta di regolamentazione”. E infine un’ altra ombra: “L’intelligenza artificiale ha una grande capacità di elaborazione, ma non sa dare conto“. In poche parole non ha trasparenza. Non risponderà a tutte le nostre domande.

Le notizie del sito Dire sono utilizzabili e riproducibili, a condizione di citare espressamente la fonte Agenzia DIRE e l’indirizzo www.dire.it