| BHSC
BIZNIS I TEHNOLOGIJA
5 minuta čitanja
Izvještaji: Palantirova AI tehnologija korištena u izraelskim napadima
Kompanija za analizu podataka sa sjedištem u SAD-u produbila je saradnju s Izraelom 2024. godine, pružajući podršku u odabiru ciljeva putem umjetne inteligencije.
Izvještaji: Palantirova AI tehnologija korištena u izraelskim napadima
Američki Palantir optužen da je AI tehnologijom pomagao izraelske napade. / Reuters

Američka kompanija za analizu podataka Palantir Technologies proširila je svoju ulogu u odbrani i vojnom obavještajnom radu putem sistema zasnovanih na umjetnoj inteligenciji koje koristi izraelska vojska, dok izvještaji i procjene stručnjaka ukazuju na to da su ove tehnologije raspoređene u Gazi, Libanu i operacijama povezanim s Iranom.

Palantir je sve više integrisao obavještajne alate pokretane umjetnom inteligencijom (AI) u vojne operacije putem platformi kao što su Gotham, Platforma umjetne inteligencije (AIP), Foundry i Skykit, koje kombinuju analizu podataka velikih razmjera, operativne AI sisteme i prenosive terenske obavještajne sposobnosti.

Prošle godine kompanija je potpisala ugovor vrijedan 10 milijardi dolara s američkom vojskom i postala ključni partner u Pentagonovom programu Maven, koji koristi AI za identifikaciju ciljeva i analizu ratišta. Palantir je također uključen u američki projekt zemaljske obavještajne stanice TITAN i podatkovnu platformu Army Vantage, koji imaju za cilj ubrzanje vojnog odlučivanja uz pomoć umjetne inteligencije.

Suosnivači Palantira, Alex Karp i Peter Thiel, održali su sastanak upravnog odbora u Tel Avivu u januaru 2024. godine i sastali se s izraelskim predsjednikom Isaacom Herzogom, dok su istovremeno postigli dogovor s izraelskim zvaničnicima odbrane o strateškoj saradnji s izraelskom vojskom.

Kompanija je kasnije objavila da će pružiti tehnološku podršku zasnovanu na AI-u fokusiranu na ciljanje i analizu podataka za „misije povezane s ratom“, iako nije otkrila detalje sporazuma niti uključene sisteme. Tokom svoje posjete Tel Avivu, Karp je rekao da se potražnja Izraela za uslugama kompanije povećala nakon 7. oktobra 2023. godine – misleći na dan kada je Izrael započeo svoju genocidnu kampanju u Gazi – dodajući da je Palantir počeo isporučivati proizvode drugačije od onih koji su ranije nuđeni Izraelu.

Izvještaji povezuju Palantir sisteme s operacijama u Gazi, Libanu i Iranu

U saopštenju iz 2024. godine, Centar za resurse za poslovanje i ljudska prava (Business and Human Rights Resource Centre), međunarodna nevladina organizacija, naveo je da su Palantirove tehnologije direktno korištene u izraelskim napadima na Gazu. Palantir je negirao optužbe, tvrdeći da su njegove aktivnosti u Izraelu prethodile 7. oktobru 2023. godine i da su bile u skladu s podrškom koju pruža američkim saveznicima širom svijeta.

U svojoj knjizi „Filozof u dolini: Alex Karp, Palantir i uspon nadzorne države“ (The Philosopher in the Valley: Alex Karp, Palantir and the Rise of the Surveillance State), novinar Michael Steinberger navodi da su izraelske operacije usmjerene na visoke zvaničnike Hezbollaha u Libanu 2024. godine imale koristi od Palantir tehnologija. U knjizi se također navodi da su sistemi kompanije korišteni u onome što je Izrael nazvao „Operacija Grim Beeper“, u kojoj su pejdžeri-bombe ranili stotine članova Hezbollaha.

Prema izvještaju The Washington Posta, Pentagon je također koristio Palantirov „Maven Smart System“ integrisan s Anthropicovim AI modelom Claude prilikom planiranja napada usmjerenih na Iran. U izvještaju se navodi da je sistem identifikovao i mapirao potencijalne ciljeve koristeći naprednu AI analizu.

Bivša zaposlenica Microsofta tvrdi da AI sistemi omogućavaju smrtonosno ciljanje

Govoreći za Anadolu tokom protesta protiv saradnje Microsofta s Izraelom na događaju povodom 50. godišnjice kompanije u aprilu 2025. godine, bivša zaposlenica Microsofta Ibtihal Aboussad rekla je da su Palantirove tehnologije igrale kritičnu ulogu u izraelskim vojnim operacijama.

„Palantir u suštini naoružava vještačku inteligenciju i također naoružava analizu podataka kako bi donosio smrtonosne odluke“, rekla je Aboussad, tvrdeći da izraelske vlasti prikupljaju podatke s društvenih mreža, aplikacija za razmjenu poruka, telefonskih poziva i lokacijskih usluga u Gazi kako bi podržale operacije ciljanja.

Ona je također upozorila da bi vojni zvaničnici mogli pokušati izbjeći odgovornost pripisujući odluke o napadima tehnologiji, rekavši da je još jedan opasan aspekt Palantirovih sistema to što oni funkcionišu kao „štit koji štiti Izrael od pravne odgovornosti“.

Aboussad je navela da je tehnološka infrastruktura koju je obezbijedio Palantir korištena u AI sistemima koje je razvio Izrael, kao što su „Lavender“ i „Where’s Daddy“, koji su navodno široko korišteni od strane izraelske vojske za identifikaciju ciljeva u Gazi.

„Oklijevam to čak i nazvati softverom, jer je jasno dizajniran sa svrhom nadzora, ratovanja i ubijanja“, rekla je Aboussad, dodajući da je izraelska vojska također koristila ove sisteme u operacijama pritvaranja i racijama sprovedenim na okupiranoj Zapadnoj obali.

– Stručnjaci upozoravaju da bi AI mogao povećati rizike i zamagliti odgovornost

Laura Bruun, stručnjakinja za upravljanje vještačkom inteligencijom u Međunarodnom institutu za mirovna istraživanja u Stockholmu (SIPRI), izjavila je da integracija vještačke inteligencije u konfliktna okruženja ubrzano transformiše ratovanje u smislu brzine i obima, posebno u procesima ciljanja.

Upozorila je da korištenje vještačke inteligencije kao alata za masovni nadzor nosi ozbiljne rizike po ljudska prava i privatnost, te dodatno zamagljuje granicu između civilnih i vojnih tehnologija.

Bruun je rekla da upotreba vještačke inteligencije u zonama sukoba stvara rizike koji se razlikuju od grešaka uzrokovanih ljudskim faktorom, dodajući da postojeća istraživanja ukazuju na to da bi integracija takvih tehnologija u ratovanje mogla povećati vjerovatnoću grešaka i nenamjernih rizika.

Istakla je da države snose odgovornost za greške uzrokovane umjetnom inteligencijom u ratovanju, posebno u procesima ciljanja, dodajući da bi vlade mogle biti smatrane odgovornim ako ne spriječe kvarove unutar takvih sistema.

Bruun je također naglasila da je izuzetno teško utvrditi jesu li problemi koji se javljaju u zonama sukoba direktno uzrokovani AI sistemima, napominjući da apstraktna priroda tehnologije čini identifikaciju izvora grešaka komplikovanijom.

„Do sada još uvijek nije zaista utvrđeno šta država praktično mora uraditi kako bi koristila umjetnu inteligenciju na zakonit i odgovoran način“, rekla je ona.