Războiul algoritmilor
Tehnologie

Războiul algoritmilor

Când vine vorba de utilizarea inteligenței artificiale în armată, se trezește imediat coșmarul science-fiction-ului, o IA rebelă și mortală care se ridică împotriva umanității pentru a o distruge. Din păcate, temerile militarilor și ale conducătorilor că „inamicul ne va ajunge din urmă” sunt la fel de puternice în dezvoltarea algoritmilor de război.

Războiul algoritmiccare, potrivit multora, ar putea schimba fundamental fața câmpului de luptă așa cum îl cunoaștem, în principal pentru că războiul ar fi mai rapid, cu mult înaintea capacității oamenilor de a lua decizii. general american Jack Shanahan (1), șeful Centrului Comun pentru Inteligență Artificială din SUA, subliniază, însă, că înainte de a introduce inteligența artificială în arsenale, trebuie să ne asigurăm că aceste sisteme sunt încă sub control uman și nu declanșează războaie de la sine.

„Dacă inamicul are mașini și algoritmi, vom pierde acest conflict”

Abilitatea de a conduce război algoritmic se bazează pe utilizarea progreselor tehnologiei informatice în trei domenii principale. Primul decenii de creștere exponențială a puterii de calculacest lucru a îmbunătățit considerabil performanța învățării automate. Al doilea creșterea rapidă a resurselor „Date mari”, adică seturi de date uriașe, de obicei automatizate, gestionate și create continuu, potrivite pentru învățarea automată. A treia se referă dezvoltarea rapidă a tehnologiilor cloud computing, prin care computerele pot accesa cu ușurință resursele de date și le pot procesa pentru a rezolva probleme.

Algoritm de războiașa cum este definit de experți, trebuie mai întâi exprimat cu codul computerului. În al doilea rând, trebuie să fie rezultatul unei platforme capabile atât să culeagă informații, cât și să facă alegeri, luând decizii care, cel puțin teoretic, nu necesită interventia omului. În al treilea rând, ceea ce pare evident, dar nu neapărat, căci doar în acțiune devine clar dacă o tehnică destinată altceva poate fi utilă în război și invers, trebuie să poată funcționa în condiții. conflict armat.

O analiză a direcțiilor de mai sus și a interacțiunii lor arată că război algoritmic nu este o tehnologie separată, cum ar fi, de exemplu. armă energetică sau rachete hipersonice. Efectele sale sunt cuprinzătoare și devin treptat omniprezente în ostilități. Pentru prima dată vehicule militare devin inteligenți, potențial făcând forțele de apărare care le implementează mai eficiente și mai eficiente. Astfel de mașini inteligente au limitări clare care trebuie bine înțelese.

„”, a spus Shanahan toamna trecută într-un interviu cu fostul CEO Google Eric Schmidt și vicepreședintele Google pentru afaceri internaționale Kent Walker. „”.

Proiectul de raport al Consiliului Național de Securitate al SUA privind IA se referă la China de peste 50 de ori, subliniind obiectivul oficial al Chinei de a deveni lider mondial în IA până în 2030 (Vezi si: ).

Aceste cuvinte au fost rostite la Washington la o conferință specială care a avut loc după ce Centrul Shanakhan menționat și-a prezentat raportul preliminar la Congres, pregătit în colaborare cu experți renumiți în domeniul inteligenței artificiale, printre care directorul de cercetare Microsoft Eric Horwitz, CEO-ul AWS Andy Jassa și Cercetător principal Google Cloud Andrew Moore. Raportul final va fi publicat în octombrie 2020.

Angajații Google protestează

Acum câțiva ani, Pentagonul s-a implicat. război algoritmic și o serie de proiecte legate de inteligența artificială în cadrul proiectului Maven, bazate pe colaborarea cu companii de tehnologie, inclusiv Google și startup-uri precum Clarifai. Era în principal despre lucrul inteligență artificialăpentru a facilita identificarea obiectelor pe.

Când a devenit cunoscut despre participarea Google la proiect în primăvara lui 2018, mii de angajați ai gigantului Mountain View au semnat o scrisoare deschisă în care protestează împotriva participării companiei la ostilități. După luni de tulburări de muncă Google a adoptat propriul set de reguli pentru AIcare include interzicerea participării la evenimente.

De asemenea, Google s-a angajat să finalizeze contractul Project Maven până la sfârșitul anului 2019. Ieșirea Google nu a pus capăt Proiectului Maven. A fost cumpărat de Palantir al lui Peter Thiel. Forțele Aeriene și Corpul Marin al SUA intenționează să folosească vehicule aeriene speciale fără pilot, cum ar fi Global Hawk, ca parte a proiectului Maven, fiecare dintre acestea ar trebui să monitorizeze vizual până la 100 de kilometri pătrați.

Cu ocazia a ceea ce se întâmplă în jurul Proiectului Maven, a devenit clar că armata americană are nevoie urgentă de propriul cloud. Asta a spus Shanahan în timpul conferinței. Acest lucru a fost evident atunci când înregistrările video și actualizările de sistem au trebuit să fie transportate la instalațiile militare împrăștiate pe câmp. In cladire cloud computing unificat, care va ajuta la rezolvarea problemelor de acest tip, ca parte a unui proiect de infrastructură IT unificată pentru armata Jedi, Microsoft, Amazon, Oracle și IBM. Google nu este din cauza codurilor lor etice.

Din declarația lui Shanahan reiese clar că marea revoluție a inteligenței artificiale în armată abia începe. Și rolul centrului său în forțele armate americane este în creștere. Acest lucru se vede clar în bugetul estimat al JAIC. În 2019, a însumat puțin sub 90 de milioane de dolari. În 2020, ar trebui să fie deja de 414 milioane de dolari, sau aproximativ 10% din bugetul de 4 miliarde de dolari al Pentagonului pentru IA.

Aparatul recunoaște un soldat predat

Trupele americane sunt deja echipate cu sisteme precum Phalanx (2), care este un tip de armă autonomă folosită pe navele marinei americane pentru a ataca rachetele care sosesc. Când este detectată o rachetă, aceasta se pornește automat și distruge tot ce se află în calea ei. Potrivit lui Ford, el poate ataca cu patru sau cinci rachete într-o jumătate de secundă fără a fi nevoit să treacă și să se uite la fiecare țintă.

Un alt exemplu este Harpy semi-autonom (3), un sistem comercial fără pilot. Harpia este folosită pentru a distruge radarele inamice. De exemplu, în 2003, când SUA au lansat o lovitură asupra Irakului care avea sisteme de interceptare radar aeropurtate, dronele fabricate israelieni au ajutat să le găsească și să le distrugă, astfel încât americanii să poată zbura în siguranță în spațiul aerian irakian.

3. Lansarea dronei sistemului IAI Harpy

Un alt exemplu binecunoscut de arme autonome este Sistem coreean Samsung SGR-1, situată în zona demilitarizată dintre Coreea de Nord și Coreea de Sud, concepută pentru a identifica și trage intrușii la o distanță de până la patru kilometri. Conform descrierii, sistemul „poate distinge între o persoană care se predă și o persoană care nu se predă” pe baza poziției mâinilor sau a recunoașterii poziției armei în mâinile lor.

4. Demonstrarea detectării unui soldat care se preda de către sistemul Samsung SGR-1

Americanilor le este frică să nu rămână în urmă

În prezent, cel puțin 30 de țări din întreaga lume folosesc arme automate cu diferite niveluri de dezvoltare și utilizare a IA. China, Rusia și Statele Unite văd inteligența artificială ca un element indispensabil în construirea poziției lor viitoare în lume. „Cine va câștiga cursa AI va conduce lumea”, a spus președintele rus Vladimir Putin studenților în august 2017. Președintele Republicii Populare Chineze, Xi Jinping, nu a făcut declarații atât de importante în presă, dar el este principalul motor al directivei care cere ca China să devină forța dominantă în domeniul IA până în 2030.

Există o îngrijorare din ce în ce mai mare în Statele Unite cu privire la „efectul satelit”, care a arătat că Statele Unite sunt extrem de prost echipate pentru a face față noilor provocări generate de inteligența artificială. Și acest lucru poate fi periculos pentru pace, fie și numai pentru că țara amenințată de dominație poate dori să elimine avantajul strategic al inamicului în alt mod, adică prin război.

Deși scopul inițial al proiectului Maven a fost de a ajuta la găsirea luptătorilor islamici ISIS, semnificația acestuia pentru dezvoltarea în continuare a sistemelor militare de inteligență artificială este enormă. Războiul electronic bazat pe înregistratoare, monitoare și senzori (inclusiv mobil, zburător) este asociat cu un număr mare de fluxuri de date eterogene, care pot fi utilizate eficient doar cu ajutorul algoritmilor AI.

Câmpul de luptă hibrid a devenit versiune militară a IoT, bogat în informații importante pentru evaluarea amenințărilor și oportunităților tactice și strategice. A putea gestiona aceste date în timp real are mari beneficii, dar eșecul de a învăța din aceste informații poate fi dezastruos. Abilitatea de a procesa rapid fluxul de informații de la diverse platforme care operează în mai multe zone oferă două avantaje militare majore: viteză i accesibilitate. Inteligența artificială vă permite să analizați condițiile dinamice ale câmpului de luptă în timp real și să loviți rapid și optim, minimizând în același timp riscul pentru propriile forțe.

Acest nou câmp de luptă este, de asemenea, omniprezent și. AI se află în centrul așa-numitelor roiuri de drone, care au primit multă atenție în ultimii ani. Cu ajutorul senzorilor omniprezenti, nu numai că permite dronelor să navigheze pe teren ostil, dar poate permite în cele din urmă formarea de formațiuni complexe de diferite tipuri de vehicule aeriene fără pilot care operează în multe zone, cu arme suplimentare care permit tactici de luptă sofisticate, adaptându-se imediat la dusman. manevre pentru a profita de câmpul de luptă și pentru a raporta condițiile în schimbare.

Progresele în desemnarea și navigarea țintelor asistate de IA îmbunătățesc, de asemenea, perspectivele de eficacitate într-o gamă largă de sisteme de apărare tactice și strategice, în special apărarea antirachetă, prin îmbunătățirea metodelor de detectare, urmărire și identificare a țintelor.

crește constant puterea simulărilor și a instrumentelor de joc utilizate pentru cercetarea armelor nucleare și convenționale. Modelarea și simularea în masă vor fi esențiale pentru dezvoltarea unui sistem cuprinzător cu mai multe domenii de sisteme țintă pentru controlul luptei și misiuni complexe. AI îmbogățește, de asemenea, interacțiunile cu mai multe părți (5). AI permite jucătorilor să adauge și să modifice variabilele jocului pentru a explora modul în care condițiile dinamice (arme, implicarea aliaților, trupe suplimentare etc.) pot afecta performanța și luarea deciziilor.

Pentru militari, identificarea obiectelor este un punct de plecare natural pentru AI. În primul rând, este necesară o analiză cuprinzătoare și rapidă a numărului tot mai mare de imagini și informații colectate de la sateliți și drone pentru a găsi obiecte de importanță militară, cum ar fi rachete, mișcări de trupe și alte date legate de informații. Astăzi, câmpul de luptă se întinde pe toate peisajele – mare, pământ, aer, spațiu și spațiu cibernetic – la scară globală.

Spațiul ciberneticca domeniu inerent digital, este în mod natural potrivit pentru aplicațiile AI. Pe partea ofensivă, AI poate ajuta să găsească și să vizeze noduri de rețea individuale sau conturi individuale pentru a colecta, perturba sau dezinforma. Atacurile cibernetice asupra infrastructurii interne și a rețelelor de comandă pot fi dezastruoase. În ceea ce privește apărarea, AI poate ajuta la detectarea unor astfel de intruziuni și la găsirea anomaliilor distructive în sistemele de operare civile și militare.

Viteză așteptată și periculoasă

Cu toate acestea, luarea rapidă a deciziilor și execuția promptă s-ar putea să nu vă fie bine. pentru gestionarea eficientă a crizelor. Avantajele inteligenței artificiale și ale sistemelor autonome pe câmpul de luptă s-ar putea să nu lase timp pentru diplomație, care, după cum știm din istorie, a avut adesea succes ca mijloc de prevenire sau de gestionare a unei crize. În practică, încetinirea, pauzele și timpul de negociere pot fi cheia victoriei sau cel puțin a evita catastrofele, mai ales atunci când armele nucleare sunt în joc.

Deciziile privind războiul și pacea nu pot fi lăsate în seama analizei predictive. Există diferențe fundamentale în modul în care datele sunt utilizate în scopuri științifice, economice, logistice și predictive. comportament uman.

Unii pot percepe AI ca pe o forță care slăbește sensibilitatea strategică reciprocă și crește astfel riscul de război. Datele corupte accidental sau intenționat pot determina sistemele AI să efectueze acțiuni neintenționate, cum ar fi identificarea greșită și țintirea țintelor greșite. Viteza de acțiune postulată în cazul dezvoltării algoritmilor de război poate însemna o escaladare prematură sau chiar inutilă care împiedică gestionarea rațională a crizei. Pe de altă parte, algoritmii nu vor aștepta și explica, deoarece se așteaptă să fie, de asemenea, rapid.

Aspect deranjant funcționarea algoritmilor de inteligență artificială prezentata si de noi recent in MT. Nici măcar experții nu știu exact cum AI duce la rezultatele pe care le vedem în rezultat.

În cazul algoritmilor de război, nu ne putem permite o asemenea ignoranță despre natură și despre modul în care ei le „gândesc”. Nu vrem să ne trezim în miezul nopții cu izbucniri nucleare, deoarece inteligența artificială „noatră” sau „lor” a decis că este timpul să rezolvăm în sfârșit jocul.

Adauga un comentariu