Il fantasma dell'assassino della macchina continua. In cosa crede il presidente Putin?
Tecnologia

Il fantasma dell'assassino della macchina continua. In cosa crede il presidente Putin?

I fautori dei robot militari (1) sostengono che le armi automatizzate forniscono più opzioni per proteggere la vita umana. Le macchine sono in grado di avvicinarsi al nemico più dei soldati e di valutare correttamente la minaccia. E le emozioni a volte paralizzano la capacità di prendere le decisioni giuste.

Molti sostenitori dell'utilizzo di robot assassini credono fermamente che renderanno le guerre meno sanguinose perché moriranno meno soldati. Notano che i robot, pur non provando pietà, sono immuni alle emozioni umane negative come panico, rabbia e vendetta, che spesso portano a crimini di guerra.

Gli attivisti per i diritti umani usano anche l'argomento secondo cui l'esercito ha portato a un'enorme riduzione delle vittime civili nell'ultimo mezzo secolo e la robotizzazione dell'esercito consente un meccanismo per far rispettare le leggi di guerra in modo più rigoroso. Affermano che le macchine diventeranno etiche quando saranno dotate di software che le costringerà a obbedire alle leggi di guerra.

Naturalmente, un numero enorme di persone, comprese quelle molto famose, non condivide questa opinione da anni. Nell'aprile 2013 è stata lanciata una campagna internazionale con lo slogan (2). All'interno del suo quadro, le organizzazioni non governative chiedono il divieto totale dell'uso di armi autonome. Esperti di molti paesi si sono seduti per la prima volta a discutere di questo argomento alla Conferenza delle Nazioni Unite sul disarmo tenutasi a Ginevra nel maggio 2014. Un rapporto pubblicato pochi mesi dopo da Human Rights Watch e scienziati dell'Università di Harvard affermava che quelli autonomi sarebbero stati troppo pericolosi: sceglievano i propri obiettivi e uccidevano le persone. Allo stesso tempo, non è molto chiaro chi dovrebbe essere ritenuto responsabile.

2. Dimostrazione nell'ambito dell'azione "Stop killer robots"

Cosa può fare uno sciame di piccoli droni

Le controversie sui robot killer (ROU) sono in corso da anni e non svaniscono. Gli ultimi mesi hanno portato nuovi tentativi di fermare i robot militari e un'ondata di segnalazioni di nuovi progetti di questo tipo, alcuni dei quali sono addirittura in fase di sperimentazione in condizioni di combattimento reali.

Nel novembre 2017, viene proiettato un video sciami mortali di mini-droni ., in un'azione terrificante. Gli spettatori hanno visto che non abbiamo più bisogno delle pesanti macchine da guerra, dei carri armati o dei missili lanciati dai Predator per uccidere in massa e con le mitragliatrici. Il direttore principale Stuart Russell, professore di intelligenza artificiale a Berkeley, afferma:

-

L'ultima primavera cinquanta professori Le principali università del mondo hanno firmato un appello al Korea Institute of Advanced Science and Technology (KAIST) e al suo partner Hanwha Systems. hanno annunciato che non avrebbero collaborato con l'università e avrebbero ospitato gli ospiti del KAIST. Il motivo era la costruzione di "armi autonome" effettuata da entrambe le istituzioni. KAIST ha negato i resoconti dei media.

Poco dopo negli Stati Uniti più di 3 dipendenti Google protestò contro il lavoro della società per i militari. Erano preoccupati che Google stesse collaborando con un progetto governativo nome in codice Maven che mira a utilizzare l'IA per riconoscere oggetti e volti nei video dei droni militari. La direzione dell'azienda afferma che l'obiettivo di Maven è salvare vite umane e salvare le persone dal lavoro noioso, non dall'aggressione. I manifestanti non erano convinti.

La parte successiva della battaglia fu la dichiarazione esperti di intelligenza artificiale, incl. lavorare su un progetto Google e Elon Musk. Promettono di non sviluppare robot. Invitano inoltre i governi a intensificare gli sforzi per regolamentare e limitare queste armi.

La dichiarazione dice, in parte, che "la decisione di prendere una vita umana non dovrebbe mai essere presa da una macchina". Sebbene gli eserciti del mondo siano dotati di molti dispositivi automatici, a volte con un alto grado di autonomia, molti esperti temono che in futuro questa tecnologia possa diventare completamente autonoma, consentendo l'uccisione senza alcun coinvolgimento di un operatore e comandante umano.

Gli esperti avvertono anche che le macchine per uccidere autonome potrebbero essere ancora più pericolose delle "armi nucleari, chimiche e biologiche" perché possono facilmente sfuggire al controllo. In totale, nel luglio dello scorso anno, una lettera sotto l'egida del Future of Life Institute (FGI) è stata firmata da 170 organizzazioni e 2464 individui. Nei primi mesi del 2019, un gruppo di scienziati medici affiliati a FLI ha chiesto nuovamente una nuova lettera che vieti lo sviluppo di armi controllate dall'intelligenza artificiale (AI).

La riunione dell'Onu dell'agosto dello scorso anno a Gniewo sulla possibile regolamentazione legale dei "robot killer" militari si è conclusa con successo... macchine. Un gruppo di paesi, tra cui Stati Uniti, Russia e Israele, ha bloccato ulteriori lavori sull'introduzione di un divieto internazionale su queste armi (bozza di Convenzione sulla proibizione o restrizione dell'uso di determinate armi convenzionali, CCW). Non è un caso che questi paesi siano noti per il loro lavoro su sistemi avanzati di armi autonome e robotiche.

La Russia punta sui robot da combattimento

Il presidente Vladimir Putin è spesso citato per aver detto sui sistemi di intelligenza artificiale militare e sui robot da combattimento:

-.

parla apertamente dello sviluppo di armi autonome. Il capo di stato maggiore delle sue forze armate, il generale Valery Gerasimov, ha recentemente dichiarato all'agenzia di stampa militare Interfax-AVN che l'uso dei robot sarà una delle caratteristiche principali delle guerre future. Ha aggiunto che la Russia ci sta provando automatizzare completamente il campo di battaglia. Commenti simili sono stati fatti dal vice primo ministro Dmitry Rogozin e dal ministro della Difesa Sergei Shoigu. Il presidente del Comitato per la difesa e la sicurezza del Consiglio della Federazione, Viktor Bondarev, ha affermato che la Russia si sta sforzando di svilupparsi Tecnologie Rojuciò consentirebbe alle reti di droni di funzionare come un'unica entità.

Ciò non sorprende se ricordiamo che i primi teletank furono sviluppati in Unione Sovietica negli anni '30. Sono stati utilizzati all'inizio della seconda guerra mondiale. Oggi crea anche la Russia robot cisterna diventare sempre più autonomo.

Lo stato di Putin ha recentemente inviato il proprio in Siria Veicolo da combattimento senza pilota Uran-9 (3). il dispositivo ha perso il contatto con i punti di controllo a terra, ha avuto problemi con il sistema di sospensione e le sue armi non funzionavano perfettamente e non hanno colpito bersagli mobili. Non sembra molto serio, ma molti considerano il wipe siriano un buon test di combattimento che permetterà ai russi di migliorare la macchina.

Roscosmos ha approvato un piano preliminare per inviare due robot alla Stazione Spaziale Internazionale entro agosto di quest'anno. Fedor (4) nell'Unione senza pilota. Non come un carico, ma. Come nel film RoboCop, Fedor brandisce un'arma e dimostra abilità di tiro mortali durante gli esercizi di tiro.

La domanda è: perché un robot nello spazio dovrebbe essere armato? Ci sono sospetti che la questione non riguardi solo le applicazioni a terra. Nel frattempo sulla Terra, il produttore di armi russo Kalashnikov ha mostrato una visualizzazione robot Igorekche, sebbene abbia causato molte risate, segnala che l'azienda sta lavorando seriamente su veicoli da combattimento autonomi. Nel luglio 2018, Kalashnikov ha annunciato che stava costruendo un'arma che usa per prendere decisioni di "sparare o non sparare".

A queste informazioni dovrebbero essere aggiunti i rapporti secondo cui l'armaiolo russo Digtyarev ha sviluppato un piccolo carro armato autonomo Nerekht che può muoversi silenziosamente verso il suo bersaglio da solo e poi esplodere con potente forza per distruggere altri o interi edifici. Così come Carro armato T14 dell'esercito , fiore all'occhiello delle forze armate russe, è stato progettato per l'eventuale controllo a distanza e la guida senza pilota. Sputnik afferma che gli ingegneri militari russi stanno lavorando per rendere il T-14 un veicolo blindato completamente autonomo.

Direttiva Obiezione

Le stesse forze armate statunitensi hanno imposto un limite abbastanza chiaro al livello di autonomia delle loro armi. Nel 2012, il Dipartimento della Difesa degli Stati Uniti ha emesso la Direttiva 3000.09, che afferma che gli esseri umani dovrebbero avere il diritto di opporsi alle azioni dei robot armati. (anche se potrebbero esserci delle eccezioni). Questa direttiva resta in vigore. L'attuale politica del Pentagono è che il fattore decisivo nell'uso delle armi dovrebbe essere sempre una persona, e tale giudizio dovrebbe esserlo. è conforme alle leggi di guerra.

Sebbene gli americani utilizzino da decenni macchine volanti, Predator, Reaper e molte altre supermacchine, non erano e non sono modelli autonomi. Sono controllati da operatori a distanza, a volte da una distanza di diverse migliaia di chilometri. Con la prima del prototipo è iniziata un'accesa discussione sull'autonomia di macchine di questo tipo. drone X-47B (5), che non solo volava in modo indipendente, ma poteva anche decollare da una portaerei, atterrare su di essa e fare rifornimento in volo. Il significato è anche sparare o bombardare senza l'intervento umano. Tuttavia, il progetto è ancora in fase di test e revisione.

5. Prove dell'X-47B senza pilota su una portaerei americana

Nel 2003, il Dipartimento della Difesa ha iniziato a sperimentare un piccolo robot simile a un carro armato. SPOSI dotato di mitragliatrice. Nel 2007 è stato inviato in Iraq. tuttavia, il programma è terminato dopo che il robot ha iniziato a comportarsi in modo irregolare, muovendo il fucile in modo irregolare. Di conseguenza, le forze armate statunitensi hanno abbandonato per molti anni lo studio dei robot da terra armati.

Allo stesso tempo, l'esercito degli Stati Uniti ha aumentato la sua spesa per le operazioni da $ 20 milioni nel 2014 a $ 156 milioni nel 2018. Nel 2019, questo budget è già salito a 327 milioni di dollari. Si tratta di un aumento cumulativo del 1823% in pochi anni. Gli esperti affermano che già nel 2025 le forze armate statunitensi potrebbero avere un campo di battaglia più soldati robot che umani.

Di recente, molte polemiche sono state causate e annunciate dall'esercito americano progetto ATLANTE () - automatico. Nei media, ciò è stato considerato una violazione della suddetta direttiva 3000.09. Tuttavia, l'esercito americano nega e assicura che l'esclusione di una persona dal ciclo decisionale è fuori questione.

L'IA riconosce squali e civili

Tuttavia, i difensori delle armi autonome hanno nuovi argomenti. prof. Ronald Arkin, un robotista del Georgia Institute of Technology, afferma nelle sue pubblicazioni che Nella guerra moderna, le armi intelligenti sono essenziali per evitare vittime civili, poiché le tecniche di apprendimento automatico possono aiutare efficacemente a distinguere tra combattenti e civili e obiettivi importanti e non importanti.

Un esempio di tali abilità di intelligenza artificiale è il pattugliamento delle spiagge australiane. droni Piccolo Squartatoredotato del sistema SharkSpotter sviluppato dalla University of Technology Sydney. Questo sistema scansiona automaticamente l'acqua alla ricerca di squali e avvisa l'operatore quando vede qualcosa di pericoloso. (6) Può identificare persone, delfini, barche, tavole da surf e oggetti nell'acqua per distinguerli dagli squali. Può rilevare e identificare circa sedici specie diverse con elevata precisione.

6. Squali riconosciuti nel sistema SharkSpotter

Questi metodi avanzati di apprendimento automatico aumentano la precisione della ricognizione aerea di oltre il 90%. Per fare un confronto, un operatore umano in una situazione simile riconosce accuratamente il 20-30% degli oggetti nelle fotografie aeree. Inoltre, l'identificazione è ancora verificata da un essere umano prima di un allarme.

Sul campo di battaglia, l'operatore, vedendo l'immagine sullo schermo, riesce a malapena a determinare se le persone a terra sono combattenti con AK-47 in mano o, ad esempio, contadini con picche. Arkin osserva che le persone tendono a "vedere ciò che vogliono vedere", specialmente in situazioni stressanti. Questo effetto ha contribuito all'abbattimento accidentale di un aereo iraniano da parte della USS Vincennes nel 1987. Naturalmente, secondo lui, le armi controllate dall'IA sarebbero migliori delle attuali "bombe intelligenti", che non sono realmente senzienti. Lo scorso agosto, un missile saudita a guida laser ha colpito un autobus pieno di scolari nello Yemen, uccidendo quaranta bambini.

"Se uno scuolabus è adeguatamente etichettato, identificarlo in un sistema autonomo può essere relativamente facile", sostiene Arkin in Popular Mechanics.

Tuttavia, questi argomenti non sembrano convincere gli attivisti contro gli assassini automatici. Oltre alla minaccia dei robot killer, bisogna tenere conto di un'altra importante circostanza. Anche un sistema "buono" e "attento" può essere violato e preso in consegna da persone molto cattive. Quindi tutti gli argomenti a difesa dell'equipaggiamento militare perdono la loro forza.

Aggiungi un commento