Support
Il Dipartimento della Difesa ha pubblicato i risultati di un work

Il Dipartimento della Difesa ha pubblicato i risultati di un workshop

04 Marzo 2021 Scritto da News 124
Vota questo articolo
(3 Voti)

Il Dipartimento della Difesa ha pubblicato i risultati di un workshop sull'etica dell'uso dell'IA nel settore.

Una relazione che descrive in dettaglio i risultati di un workshop sull'uso etico dell'intelligenza artificiale (IA) è stata pubblicata da Defence nel tentativo di sostenere considerazioni scientifiche e tecniche per il potenziale sviluppo della politica di difesa, della dottrina, della ricerca e della gestione dei progetti.

Al workshop del 2019 hanno partecipato oltre 100 rappresentanti della Difesa, di altre agenzie governative australiane, dell'industria, del mondo accademico, delle organizzazioni internazionali e dei media.
I partecipanti hanno fornito ipotesi basate su prove alle discussioni al fine di sviluppare una relazione con suggerimenti come punto di partenza per principi, argomenti e metodi pertinenti ai contesti di difesa per l'IA e i sistemi autonomi per informare la leadership militare e l'etica.

Il rapporto, intitolato A Method for Ethical AI in Defence, riassume le discussioni del workshop e delinea una "Metodologia pratica per l'IA etica nella difesa" che fungerà da guida per i futuri progetti di integrazione dell'IA.
Tre strumenti presentati dai partecipanti per assistere la difesa e l'industria nello sviluppo di sistemi di IA comprendevano:

  • una "lista di controllo dell'IA" per lo sviluppo di sistemi di IA etica;
  • una "Matrice etica del rischio di IA" per descrivere i rischi identificati e il trattamento proposto; E
  • un descrittore di elementi di dati (DID) per gli appaltatori di programmi più grandi per sviluppare un piano formale del programma legale, etico e di garanzia (LEAPP) da includere nella documentazione del progetto per i programmi di IA in cui una valutazione etica del rischio è al di sopra di una certa soglia.

"L'impegno iniziale sulle tecnologie di IA e la considerazione degli aspetti etici devono avvenire parallelamente allo sviluppo tecnologico", ha affermato la professoressa Tanya Monro, Chief Defence Scientist.
Gli scatti di Scienza, tecnologia e ricerca (STaR) di More, insieme: Defence Science and Technology Strategy 2030 stanno attualmente esplorando il potenziale per l'adozione dell'IA per soddisfare le esigenze delle priorità nazionali in materia di scienza e tecnologia della sicurezza.

"La ricerca sulla difesa che incorpora l'intelligenza artificiale e il teaming sull'autonomia umana continua a guidare l'innovazione, come il lavoro sul sistema di comando e controllo dell'impatto alleato (AIM) (C2) dimostrato a Autonomous Warrior 2018 e l'istituzione del CRC trusted autonomous systems defence", ha aggiunto il professor Monro.

Il vice maresciallo dell'aria Cath Roberts, capo della capacità dell'air force, ha affermato che l'intelligenza artificiale e il team uomo-macchina giocheranno un ruolo fondamentale per l'energia aerea e spaziale nel
futuro.
"Dobbiamo garantire che le questioni etiche e giuridiche siano risolte allo stesso ritmo con cui viene sviluppata la tecnologia", ha
affermato.

"Questo documento è utile nel suggerire di considerare le questioni etiche che possono sorgere per garantire la responsabilità dei sistemi di IA all'interno di sistemi di controllo tracciabili.
"L'applicazione pratica di questi strumenti in progetti come Loyal Wingman aiuterà la difesa a esplorare l'autonomia, l'intelligenza artificiale e i concetti di teaming in modo iterativo, di apprendimento e collaborativo."

Altro in questa categoria: « Cyber Attack Mission »
Devi effettuare il login per inviare commenti