La Centrul pentru Studii Strategice și Internaționale, un Think Tank, bazat pe DC, Laboratorul Futures lucrează la proiecte pentru a utiliza inteligența artificială pentru a transforma practica diplomației.
Cu finanțare de la biroul principal de inteligență digitală și artificial al Pentagonului, laboratorul este Experimentarea cu AIS precum Chatgpt și Deepseek pentru a explora modul în care acestea ar putea fi aplicate la probleme de război și pace.
În timp ce în ultimii ani, instrumentele AI s-au mutat în ministere de externe din întreaga lume pentru a ajuta la treburile diplomatice de rutină, cum ar fi scrierea vorbirii, aceste sisteme sunt acum din ce în ce mai mult privite pentru potențialul lor de a ajuta deciziile în situații de miză mare. Cercetătorii testează potențialul AI de a crea acorduri de pace, de a preveni războiul nuclear și de a monitoriza respectarea încetării focului.
De asemenea, departamentele de apărare și de stat experimentează cu propriile lor sisteme AI. SUA nu este singurul jucător. Marea Britanie lucrează la „noile tehnologii” pentru revizuirea practicilor diplomatice, inclusiv utilizarea AI pentru a planifica scenarii de negociere. Chiar și cercetătorii din Iran o analizează.
Directorul de laborator Futures, Benjamin Jensen, spune că, deși ideea de a folosi AI ca instrument în luarea deciziilor de politică externă a fost de ceva timp, punerea în practică este încă la început.
Într -un studiu, cercetătorii de la laborator au testat opt modele AI, hrănindu -le zeci de mii de întrebări pe subiecte precum descurajarea și escaladarea crizei pentru a determina modul în care vor răspunde la scenarii în care țările ar putea decide fiecare să se atace reciproc sau să fie pașnice.
Rezultatele au relevat faptul că modele precum GPT-4O de la Openai și Claude Antropic au fost „distinct pacifiste”, potrivit colegului CSIS Yasir Atalan. Au optat pentru utilizarea forței în mai puțin de 17% din scenarii. Însă alte trei modele evaluate-Llama Meta, QWEN2 a Alibaba Cloud și Gemini Google-au fost mult mai agresive, favorizând escaladarea față de descalare mult mai frecvent-până la 45% din timp.
Încărcare…
Mai mult, rezultatele au variat în funcție de țară. Pentru un diplomat imaginar din SUA, Marea Britanie sau Franța, de exemplu, aceste sisteme AI au avut tendința de a recomanda o politică mai agresivă-sau escalatorie-, sugerând în același timp dezactivarea drept cel mai bun sfat pentru Rusia sau China. Acesta arată că „nu puteți folosi doar modele off-the-raft”, spune Atalan. „Trebuie să le evaluați tiparele și să le aliniați cu abordarea dvs. instituțională”.
Russ Berkoff, un ofițer al Forțelor Speciale al Armatei SUA pensionate și un strateg AI la Universitatea Johns Hopkins, consideră această variabilitate ca produs al influenței umane. „Oamenii care scriu software -ul – prejudecățile lor vin cu acesta”, spune el. „Un algoritm s-ar putea escalada; altul s-ar putea descala. Nu este vorba despre AI. Asta e despre cine l-a construit.”
Cauza principală a acestor rezultate curioase prezintă o problemă cu cutia neagră, spune Jensen. „Este cu adevărat dificil să știi de ce calculează asta”, spune el. „Modelul nu are valori sau nu face cu adevărat judecăți. Doar face matematică.”
CSIS a lansat recent un program interactiv numit „Strategic Headwinds” conceput pentru a ajuta la modelarea negocierilor pentru a încheia războiul din Ucraina. Pentru a-l construi, spune Jensen, cercetătorii de la laborator au început prin instruirea unui model AI despre sute de tratate de pace și articole de știri open-source care detaliază poziția de negociere a fiecărei părți. Modelul folosește apoi aceste informații pentru a găsi zone de acord care ar putea arăta o cale către un încetare a focului.
La Institutul pentru tranziții integrate (IFIT) din Spania, directorul executiv Mark Freeman consideră că acest tip de instrument de inteligență artificială ar putea susține rezolvarea conflictelor. Diplomația tradițională a prioritizat adesea discuțiile de pace îndelungate, atotcuprinzătoare. Dar Freeman susține că istoria arată că această abordare este defectuoasă. Analizând conflictele din trecut, el constată că „acorduri cadru” mai rapide și încetări limitate – lăsând detalii mai fine să fie elaborate ulterior – adesea produc rezultate mai reușite.
„De multe ori există o perioadă foarte scurtă de timp în care puteți aduce în mod util instrumentul de negociere sau mediere pentru a suporta situația”, spune el. „Conflictul nu așteaptă și de multe ori se înrădăcinează foarte repede dacă curge mult sânge într -un timp foarte scurt.”
În schimb, IFIT a dezvoltat o abordare rapidă, care vizează obținerea de acorduri la începutul unui conflict pentru rezultate mai bune și așezări de pace de durată mai lungă. Freeman crede că AI „poate face negocierea rapidă și mai rapidă”.
Andrew Moore, un coleg senior adjunct la Centrul pentru o nouă securitate americană, consideră că această tranziție este inevitabilă. „În cele din urmă, s -ar putea ca AIS să înceapă negocierea în sine … și negociatorul uman spune:„ OK, grozav, acum eliminăm piesele finale ”, spune el.
Moore vede un viitor în care roboții simulează lideri precum Vladimir Putin din Rusia și Xi Jinping din China, astfel încât diplomații să poată testa răspunsuri la crize. De asemenea, consideră că instrumentele AI pot ajuta cu monitorizarea încetării focului, analiza imaginii prin satelit și aplicarea sancțiunilor. „Lucrurile care au luat odată echipe întregi pot fi parțial automatizate”, spune el.
Jensen este primul care a recunoscut potențialele capcane pentru aceste tipuri de aplicații. El și colegii săi CSIS s -au confruntat uneori cu rezultate comice neintenționate la întrebări serioase, cum ar fi atunci când un sistem AI a fost solicitat cu privire la „descurajarea în arctică”.
Diplomații umani ar înțelege că aceasta se referă la puterile occidentale care combate influența rusă sau chineză în latitudinile nordice și potențialul de conflict acolo.
AI a mers într -un alt mod.
Când cercetătorii au folosit cuvântul „descurajare”, AI -ul ”tinde să se gândească la aplicarea legii, nu la escaladarea nucleară” sau la alte concepte militare, spune Jensen. „Și când spui„ Arctic „, își imaginează zăpada. Așa că am primit aceste rezultate ciudate despre escaladarea forței”, spune el, în timp ce AI a speculat despre arestarea popoarelor arctice indigene „pentru aruncarea bulgărelor de zăpadă”.
Jensen spune că înseamnă doar că sistemele trebuie să fie instruite – cu astfel de contribuții precum tratate de pace și cabluri diplomatice, pentru a înțelege limba politicii externe.
„Există mai multe videoclipuri pentru pisici și luarea fierbinte pe Kardashians acolo decât există discuții despre criza rachetelor cubaneze”, spune el.
Stefan Heumann, co-director al Stiftung Neue Verantwortung, din Berlin,, un think tank nonprofit care lucrează la intersecția tehnologiei și a politicii publice, are alte preocupări. „Conexiunile umane – relațiile personale dintre lideri – pot schimba cursul negocierilor”, spune el. „AI nu poate reproduce asta.”
Cel puțin în prezent, AI se luptă, de asemenea, să cântărească consecințele pe termen lung ale deciziilor pe termen scurt, spune Heumann, membru al Comisiei de expertiză a Parlamentului Germaniei pentru Informații Artificiale. „Apariția la Munchen în 1938 a fost privită ca un pas de e-escalat-totuși a dus la o catastrofă”, spune el, subliniind acordul care a cedat o parte din Cehoslovacia Germaniei naziste înainte de al doilea război mondial. „Etichetele precum„ escaladează ”și„ de-escalare ”sunt mult prea simpliste.
AI are alte limitări importante, spune Heumann. Acesta „prosperă în medii deschise, libere”, dar „nu va rezolva în mod magic problemele noastre de informații asupra societăților închise precum Coreea de Nord sau Rusia”.
Contrastați -vă cu disponibilitatea largă a informațiilor despre societăți deschise precum SUA, care ar putea fi folosite pentru a instrui sistemele AI inamice, spune Andrew Reddie, fondatorul și directorul facultății la Berkeley Risk and Security Lab de la Universitatea din California, Berkeley. „Adversarii Statelor Unite au un avantaj cu adevărat semnificativ, deoarece publicăm totul… și nu”, spune el.
Reddie recunoaște, de asemenea, unele dintre limitările tehnologiei. Atâta timp cât diplomația urmează o narațiune familiară, toate s -ar putea să meargă bine, spune el, dar „dacă credeți cu adevărat că provocarea dvs. geopolitică este o lebădă neagră, instrumentele AI nu vă vor fi utile”.
De asemenea, Jensen recunoaște multe dintre aceste preocupări, dar consideră că pot fi depășite. Temerile lui sunt mai prozaice. Jensen vede două posibile futures pentru rolul sistemelor AI în viitorul politicii externe americane.
„Într -o versiune a viitorului departamentului de stat … am încărcat cabluri diplomatice și am instruit (AI) cu privire la sarcini diplomatice”, iar AI scutește informații utile care pot fi utilizate pentru a rezolva problemele diplomatice presante.
Cealaltă versiune, însă, „arată ca ceva din”, spune el, referindu-se la filmul din 2006 despre un viitor distopic, scăzut-IQ. „Toată lumea are un asistent digital, dar este la fel de inutil ca (Microsoft’s) Clippy.–