Guerra di algoritmi
Tecnologia

Guerra di algoritmi

Quando si tratta dell'uso dell'intelligenza artificiale in campo militare, si risveglia immediatamente l'incubo della fantascienza, un'IA ribelle e letale che si scaglia contro l'umanità per distruggerla. Sfortunatamente, i timori dei militari e dei leader che "il nemico ci raggiungerà" sono altrettanto forti nello sviluppo di algoritmi di guerra.

Guerra algoritmicache, secondo molti, potrebbe cambiare radicalmente il volto del campo di battaglia come lo conosciamo, principalmente perché la guerra sarebbe più veloce, molto più avanti della capacità delle persone di prendere decisioni. generale americano Jack Shanahan (1), capo del Centro congiunto per l'intelligenza artificiale degli Stati Uniti, sottolinea, tuttavia, che prima di introdurre l'intelligenza artificiale negli arsenali, dobbiamo garantire che questi sistemi siano ancora sotto il controllo umano e non inizino guerre da soli.

"Se il nemico ha macchine e algoritmi, perderemo questo conflitto"

Capacità di guida guerra algoritmica si basa sull'uso dei progressi della tecnologia informatica in tre aree principali. Primo decenni di crescita esponenziale della potenza di calcoloquesto ha notevolmente migliorato le prestazioni dell'apprendimento automatico. Secondo rapida crescita delle risorse "Big data", ovvero set di dati enormi, generalmente automatizzati, gestiti e creati continuamente adatti per l'apprendimento automatico. La terza riguarda rapido sviluppo delle tecnologie di cloud computing, attraverso il quale i computer possono accedere facilmente alle risorse di dati ed elaborarle per risolvere i problemi.

Algoritmo di guerracome definito dagli esperti, deve prima essere espresso con codice informatico computer. In secondo luogo, deve essere il risultato di una piattaforma capace sia di raccogliere informazioni sia di compiere scelte, di prendere decisioni che, almeno in teoria, non richiedono intervento umano. In terzo luogo, il che sembra ovvio, ma non necessariamente, poiché è solo in azione che diventa chiaro se una tecnica destinata a qualcos'altro può essere utile in guerra e viceversa, deve essere in grado di funzionare in condizioni. conflitto armato.

Un'analisi delle direzioni di cui sopra e la loro interazione lo mostra guerra algoritmica non è una tecnologia separata come, per esempio. armi a energia o missili ipersonici. I suoi effetti sono di ampia portata e stanno gradualmente diventando onnipresenti nelle ostilità. Per la prima volta veicoli militari diventano intelligenti, rendendo potenzialmente più efficienti ed efficaci le forze di difesa che li implementano. Tali macchine intelligenti hanno chiari limiti che devono essere ben compresi.

"" Shanahan ha detto lo scorso autunno in un'intervista con l'ex CEO di Google Eric Schmidt e il vicepresidente degli affari internazionali di Google Kent Walker. "".

La bozza di rapporto del Consiglio di sicurezza nazionale degli Stati Uniti sull'IA fa riferimento alla Cina più di 50 volte, evidenziando l'obiettivo ufficiale della Cina di diventare il leader mondiale dell'IA entro il 2030 (Guarda anche: ).

Queste parole sono state pronunciate a Washington in una conferenza speciale che ha avuto luogo dopo che il suddetto Shanakhan Center ha presentato al Congresso il suo rapporto preliminare, preparato in collaborazione con rinomati esperti nel campo dell'intelligenza artificiale, tra cui il direttore della ricerca Microsoft Eric Horwitz, il CEO di AWS Andy Jassa e Andrew Moore, ricercatore principale di Google Cloud. Il rapporto finale sarà pubblicato a ottobre 2020.

I dipendenti di Google protestano

Alcuni anni fa, il Pentagono è stato coinvolto. guerra algoritmica e una serie di progetti relativi all'intelligenza artificiale nell'ambito del progetto Maven, basati sulla collaborazione con società tecnologiche, tra cui Google e startup come Clarifai. Si trattava principalmente di lavorare intelligenza artificialeper facilitare l'identificazione degli oggetti su.

Quando si è saputo della partecipazione di Google al progetto nella primavera del 2018, migliaia di dipendenti del colosso di Mountain View hanno firmato una lettera aperta per protestare contro il coinvolgimento dell'azienda nelle ostilità. Dopo mesi di agitazione sindacale Google ha adottato il proprio insieme di regole per l'IAche include il divieto di partecipazione agli eventi.

Google si è inoltre impegnata a completare il contratto Project Maven entro la fine del 2019. L'uscita di Google non ha posto fine a Project Maven. È stato acquistato dal Palantir di Peter Thiel. L'Air Force e il Corpo dei Marines degli Stati Uniti hanno in programma di utilizzare speciali veicoli aerei senza pilota, come il Global Hawk, come parte del progetto Maven, ognuno dei quali dovrebbe monitorare visivamente fino a 100 chilometri quadrati.

In occasione di quanto sta accadendo attorno al Progetto Maven, è diventato chiaro che l'esercito americano ha urgente bisogno di un proprio cloud. Questo è ciò che ha detto Shanahan durante la conferenza. Ciò era evidente quando le riprese video e gli aggiornamenti del sistema dovevano essere trasportati su camion alle installazioni militari sparse sul campo. In costruzione cloud computing unificato, che aiuterà a risolvere problemi di questo tipo, nell'ambito di un progetto di infrastruttura IT unificata per l'esercito Jedi, Microsoft, Amazon, Oracle e IBM. Google non è a causa dei loro codici etici.

È chiaro dalla dichiarazione di Shanahan che la grande rivoluzione dell'IA nell'esercito è solo all'inizio. E cresce il ruolo del suo centro nelle forze armate statunitensi. Questo è chiaramente visibile nel budget JAIC stimato. Nel 2019 ha totalizzato poco meno di 90 milioni di dollari. Nel 2020 dovrebbero essere già 414 milioni di dollari, ovvero circa il 10 percento del budget di 4 miliardi di dollari del Pentagono per l'IA.

La macchina riconosce un soldato arreso

Le truppe statunitensi sono già dotate di sistemi come il Phalanx (2), che è un tipo di arma autonoma utilizzata sulle navi della Marina americana per attaccare i missili in arrivo. Quando viene rilevato un missile, si accende automaticamente e distrugge tutto ciò che incontra. Secondo Ford, può attaccare con quattro o cinque missili in mezzo secondo senza dover passare attraverso e guardare ogni bersaglio.

Un altro esempio è il semiautonomo Harpy (3), un sistema commerciale senza pilota. L'arpia è usata per distruggere i radar nemici. Ad esempio, nel 2003, quando gli Stati Uniti lanciarono un attacco contro l'Iraq che disponeva di sistemi di intercettazione radar aviotrasportati, i droni di fabbricazione israeliana aiutarono a trovarli e distruggerli in modo che gli americani potessero volare in sicurezza nello spazio aereo iracheno.

3. Lancio del drone del sistema IAI Harpy

Un altro noto esempio di armi autonome è Sistema coreano Samsung SGR-1, situata nella zona demilitarizzata tra Corea del Nord e Corea del Sud, progettata per identificare e sparare intrusi a una distanza massima di quattro chilometri. Secondo la descrizione, il sistema "può distinguere tra una persona che si arrende e una persona che non si arrende" in base alla posizione delle loro mani o al riconoscimento della posizione dell'arma nelle loro mani.

4. Dimostrazione del rilevamento di un soldato che si arrende da parte del sistema Samsung SGR-1

Gli americani hanno paura di essere lasciati indietro

Attualmente, almeno 30 paesi in tutto il mondo utilizzano armi automatiche con diversi livelli di sviluppo e utilizzo dell'IA. Cina, Russia e Stati Uniti vedono l'intelligenza artificiale come un elemento indispensabile per costruire la loro posizione futura nel mondo. "Chiunque vinca la gara dell'IA dominerà il mondo", ha detto agli studenti il ​​presidente russo Vladimir Putin nell'agosto 2017. Il presidente della Repubblica popolare cinese, Xi Jinping, non ha rilasciato dichiarazioni di così alto profilo nei media, ma è il principale motore della direttiva che chiede alla Cina di diventare la forza dominante nel campo dell'IA entro il 2030.

Negli Stati Uniti c'è una crescente preoccupazione per l'"effetto satellite", che ha dimostrato che gli Stati Uniti sono estremamente mal equipaggiati per affrontare le nuove sfide poste dall'intelligenza artificiale. E questo può essere pericoloso per la pace, se non altro perché il Paese minacciato dal dominio potrebbe voler eliminare il vantaggio strategico del nemico in un altro modo, cioè con la guerra.

Sebbene lo scopo originale del progetto Maven fosse quello di aiutare a trovare combattenti islamici dell'ISIS, il suo significato per l'ulteriore sviluppo dei sistemi di intelligenza artificiale militare è enorme. La guerra elettronica basata su registratori, monitor e sensori (anche mobili, volanti) è associata a un numero enorme di flussi di dati eterogenei, che possono essere utilizzati efficacemente solo con l'aiuto di algoritmi di intelligenza artificiale.

Il campo di battaglia ibrido è diventato versione militare dell'IoT, ricco di informazioni importanti per valutare le minacce e le opportunità tattiche e strategiche. Essere in grado di gestire questi dati in tempo reale ha grandi vantaggi, ma non apprendere da queste informazioni può essere disastroso. La capacità di elaborare rapidamente il flusso di informazioni da varie piattaforme operanti in più aree offre due principali vantaggi militari: velocità i raggiungere. L'intelligenza artificiale ti consente di analizzare le condizioni dinamiche del campo di battaglia in tempo reale e colpire in modo rapido e ottimale, riducendo al minimo il rischio per le tue stesse forze.

Anche questo nuovo campo di battaglia è onnipresente e. L'IA è al centro dei cosiddetti sciami di droni, che hanno ricevuto molta attenzione negli ultimi anni. Con l'aiuto di sensori onnipresenti, non solo consente ai droni di navigare su terreni ostili, ma può infine consentire la formazione di complesse formazioni di vari tipi di veicoli aerei senza pilota che operano in molte aree, con armi aggiuntive che consentono sofisticate tattiche di combattimento, adattandosi immediatamente alle nemico. manovre per sfruttare il campo di battaglia e segnalare condizioni mutevoli.

I progressi nella designazione e nella navigazione dei bersagli assistiti dall'IA stanno anche migliorando le prospettive di efficacia in un'ampia gamma di sistemi di difesa tattica e strategica, in particolare la difesa missilistica, migliorando i metodi di rilevamento, tracciamento e identificazione dei bersagli.

aumenta costantemente la potenza delle simulazioni e degli strumenti di gioco utilizzati per la ricerca di armi nucleari e convenzionali. La modellazione e la simulazione di massa saranno essenziali per sviluppare un sistema multidominio completo di sistemi di destinazione per il controllo del combattimento e missioni complesse. L'IA arricchisce anche le interazioni tra più parti (5). L'IA consente ai giocatori di aggiungere e modificare le variabili di gioco per esplorare come le condizioni dinamiche (armi, coinvolgimento degli alleati, truppe aggiuntive, ecc.) possono influenzare le prestazioni e il processo decisionale.

Per i militari, l'identificazione degli oggetti è un punto di partenza naturale per l'IA. In primo luogo, è necessaria un'analisi completa e rapida del numero crescente di immagini e informazioni raccolte da satelliti e droni per trovare oggetti di importanza militare, come missili, movimenti di truppe e altri dati relativi all'intelligence. Oggi, il campo di battaglia abbraccia tutti i paesaggi - mare, terra, aria, spazio e cyberspazio - su scala globale.

Cyberspazioin quanto dominio intrinsecamente digitale, è naturalmente adatto alle applicazioni di intelligenza artificiale. Sul lato offensivo, l'IA può aiutare a trovare e indirizzare singoli nodi di rete o singoli account per raccogliere, interrompere o disinformare. Gli attacchi informatici alle infrastrutture interne e alle reti di comando possono essere disastrosi. Per quanto riguarda la difesa, l'IA può aiutare a rilevare tali intrusioni e trovare anomalie distruttive nei sistemi operativi civili e militari.

Velocità prevista e pericolosa

Tuttavia, un rapido processo decisionale e una rapida esecuzione potrebbero non essere utili. per una gestione efficace delle crisi. I vantaggi dell'intelligenza artificiale e dei sistemi autonomi sul campo di battaglia potrebbero non lasciare il tempo alla diplomazia, che, come sappiamo dalla storia, ha spesso avuto successo come mezzo per prevenire o gestire una crisi. In pratica, il rallentamento, le pause e il tempo per negoziare possono essere la chiave per la vittoria, o almeno per evitare una catastrofe, soprattutto quando sono in gioco armi nucleari.

Le decisioni su guerra e pace non possono essere lasciate all'analisi predittiva. Esistono differenze fondamentali nel modo in cui i dati vengono utilizzati per scopi scientifici, economici, logistici e predittivi. comportamento umano.

Alcuni potrebbero percepire l'IA come una forza che indebolisce la reciproca sensibilità strategica e quindi aumenta il rischio di guerra. Dati danneggiati accidentalmente o intenzionalmente possono far sì che i sistemi di IA eseguano azioni non intenzionali, come identificare erroneamente e prendere di mira obiettivi sbagliati. La velocità d'azione postulata nel caso dello sviluppo di algoritmi di guerra può significare un'escalation prematura o addirittura inutile che impedisce la gestione razionale della crisi. D'altra parte, anche gli algoritmi non aspetteranno e spiegheranno, perché dovrebbero anche essere veloci.

Aspetto inquietante funzionamento di algoritmi di intelligenza artificiale presentato anche da noi di recente in MT. Anche gli esperti non sanno esattamente come l'IA porta ai risultati che vediamo nell'output.

Nel caso degli algoritmi di guerra, non possiamo permetterci una tale ignoranza sulla natura e su come li "pensano". Non vogliamo svegliarci nel cuore della notte per i razzi nucleari perché la "nostra" o "loro" intelligenza artificiale ha deciso che è ora di sistemare finalmente il gioco.

Aggiungi un commento