Аналізуючы каментарыі крыніц у ізраільскай арміі і малазаўважныя заявы, зробленыя прадстаўнікамі ЦАХАЛ, брытанскае выданне The Guardian апублікавала даследаванне пра выкарыстанне Ізраілем у вайне супраць ХАМАС сістэмы штучнага інтэлекта. Гэтая сістэма, вядомая як “Евангелле”, значна паўплывала на пошук дапушчальных мэтаў для атак.
Сваю першую вайну з выкарыстаннем штучнага інтэлекта Ізраіль праводзіў яшчэ ў 2021 годзе. Гэта была 11-дзённая вайна, падчас якой прадстаўнікі ізраільскай арміі заявілі пра актыўнае выкарыстанне машыннага навучання і перадавых вылічэнняў. Па выніках канфлікта ў траўні 2021 года Ізраіль заявіў пра небывалы поспех і знішчэнне ваеннай інфраструктуры ХАМАС.
Сучасная вайна паміж Ізраілем і ХАМАС дае ЦАХАЛ беспрэцэдэнтна большыя магчымасці для выкарыстання перадавых ваенных тэхналогій на тэатры баявых дзеянняў. Брытанскае выданне The Guardian сабрала і прааналізавала падрабязнасці пра выкарыстанне ізраільцянамі сістэмы штучнага інтэлекту пад назвай “Хабсора”, альбо “Евангелле” – па-беларуску.
Да 100 мэтаў у дзень
Сакрэтны аддзел адміністрацыі (выяўлення і прызначэння) мэтаў для нанясення ўдараў быў створаны ў ЦАХАЛ у 2019 годзе пры разведвальным упраўленні. У кароткай заяве на вэб-сайце ЦАХАЛа сцвярджалася, што ў вайне супраць ХАМАС яна выкарыстоўвае сістэму на аснове штучнага інтэлекту, каб “выяўляць мэты ў хуткім тэмпе”.
ЦАХАЛ заявіў, што “дзякуючы хуткаму і аўтаматычнаму здабыванню інтэлектуальных дадзеных”, Евангелле дало рэкамендацыі па таргетынгу для сваіх даследчыкаў “з мэтай поўнага супадзення паміж рэкамендацыямі машыны і ідэнтыфікацыяй, праведзенай чалавекам”.
Шматлікія крыніцы, знаёмыя з працэсамі цэлеўказання ЦАХАЛа, пацвердзілі існаванне механізаванага алгарытма, заявіўшы, што ён выкарыстоўваўся для стварэння аўтаматызаваных рэкамендацый для нападу на цэлі – такія, як прыватныя дамы асоб, якія падазраюцца ў дзейнасці ў групоўках ХАМАС або Ісламскі Джыхад.
Авіў Кохаві, які займаў тады пасаду кіраўніка Арміі абароны Ізраіля, заявіў, што новае падраздзяленне, гэта дывізія, “абсталяваная магчымасцямі штучнага інтэлекту” і якая ўключае ў сябе сотні афіцэраў і салдат. У інтэрв’ю, апублікаваным перад бягучай вайной, ён сказаў, што гэта “машына, якая вырабляе велізарныя аб’ёмы дадзеных больш эфектыўна, чым любы чалавек, і ператварае іх у цэлі для ўдару”. Па словах Кохаві, “як толькі гэтая машына была актываваная” падчас 11-дзённай вайны Ізраіля з ХАМАС у маі 2021 года, яна стварала 100 цэляў у дзень.
Цяпер – незалежна ад рангу
Новая дывізія са штучным інтэлектам была створана для вырашэння хранічнай праблемы ЦАХАЛа. У ранейшых аперацыях у Газе ў ізраільскай арміі нярэдка проста не хапала мэтаў для нанясення ўдараў, паколькі высокапастаўленыя чыноўнікі ХАМАС знікалі ў тунэлях у пачатку любога новага наступу
Як паведамляюць крыніцы выдання, такія сістэмы, як Евангелле, дазволілі ЦАХАЛу выяўляць і атакаваць значна большую групу малодшых аператыўнікаў.
Адзін чыноўнік, які працаваў над прыняццем рашэнняў аб цэлеўказанні ў папярэдніх аперацыях у Газе, сказаў, што ЦАХАЛ раней не нападаў на дамы малодшых членаў ХАМАС. І гэта змянілася ў дачыненні да цяперашняга канфлікту – цяпер дамы падазраваных актывістаў ХАМАС становяцца мішэнню незалежна ад рангу.
Згодна з дадзенымі, апублікаванымі ЦАХАЛам у лістападзе, на працягу першых 35 дзён вайны Ізраіль атакаваў 15 000 аб’ектаў у Газе, што значна вышэй, чым у папярэдніх ваенных аперацыях на гэтай густанаселенай прыбярэжнай тэрыторыі. Для параўнання, у вайне 2014 года, якая доўжылася 51 дзень, ЦАХАЛ разбамбіў ад 5000 да 6000 цэляў.
“Гэта сапраўды як фабрыка”
Крыніцы, знаёмыя з тым, як сістэмы на аснове штучнага інтэлекту былі інтэграваныя ў аперацыі ЦАХАЛа, сказалі, што такія інструменты значна паскорылі працэс стварэння мэты.
– Мы рыхтуем мішэні аўтаматычна і працуем у адпаведнасці з кантрольным спісам. – паведаміла крыніца, якая раней працавала ў мэтавым аддзеле, выданню +972/Local Call – Гэта сапраўды як фабрыка. Мы працуем хутка і няма часу ўнікаць у цэль. Мяркуецца, што нас ацэньваюць паводле таго, колькі мэтаў нам удалося стварыць.
У кароткай заяве ЦАХАЛа аб дзейнасці дывізіі па цэлеўказанні высокапастаўлены чыноўнік сказаў, што падраздзяленне “вырабляе дакладныя атакі на інфраструктуру, звязаную з ХАМАС, наносячы пры гэтым вялікую шкоду праціўніку і мінімальную шкоду асобам, якія не ўдзельнічаюць у баявых дзеяннях”.
Былая высокапастаўленая ізраільская ваенная крыніца распавяла Guardian, што аператыўнікі выкарыстоўваюць “вельмі дакладнае” вымярэнне хуткасці грамадзянскіх асоб, якія эвакуіруюцца з будынка незадоўга да ўдару. “Мы выкарыстоўваем алгарытм, каб ацаніць, колькі мірных жыхароў засталося. Ён дае нам зялёны, жоўты, чырвоны, як сігнал святлафора”.
Аднак эксперты ў галіне штучнага інтэлекту і ўзброеных канфліктаў, якія размаўлялі з Guardian, заявілі, што скептычна ставяцца да сцвярджэнняў, што сістэмы на аснове штучнага інтэлекту памяншаюць шкоду грамадзянскаму насельніцтва, заахвочваючы больш дакладнае нацэльванне.
“Паглядзіце на фізічны ландшафт Газы. – сказаў Рычард Моес, даследчык, які ўзначальвае групу Article 36, якая змагаецца за зніжэнне шкоды ад зброі – Мы назіраем паўсюднае руйнаванне гарадской тэрыторыі з дапамогай цяжкай выбуховай зброі, таму заявы аб дакладнасці і абмежаванасці прымянення сілы не пацвярджаюцца фактамі.
Іншая крыніца паведаміла выданню, што Евангелле дазволіла ЦАХАЛу запусціць “фабрыку масавых забойстваў”, у якой “акцэнт робіцца на колькасці, а не на якасці”. Чалавечае вока, па яго словах, “будзе аглядаць цэлі перад кожнай атакай, але яму не прыходзіцца марнаваць на гэта шмат часу”.
У некаторых экспертаў, якія даследуюць штучны інтэлект і міжнароднае гуманітарнае права, такое паскарэнне выклікае шэраг праблем. Доктар Марта Бо, навуковы супрацоўнік Стакгольмскага міжнароднага інстытута даследавання праблем міру, сказала, што нават калі “людзі знаходзяцца ў курсе”, існуе рызыка таго, што ў іх узнікне “схільнасць да аўтаматызацыі” і “празмерная залежнасць ад сістэмы, якія аказваюць занадта вялікі ўплыў на складаныя чалавечыя рашэнні”.
Мойес з Article 36 сказаў, што, абапіраючыся на такія інструменты, як Евангелле, камандзірам “перадаецца спіс мэтаў, створаны кампутарам”, і яны “неабавязкова ведаюць, як гэты спіс быў створаны, або маюць магчымасць адэкватна аналізаваць і ставіць пад сумнеў рэкамендацыі па таргетынгу”.
“Існуе небяспека, – дадаў ён – што калі людзі пачынаюць спадзявацца на гэтыя сістэмы, яны становяцца вінцікамі ў механізаваным працэсе і губляюць здольнасць разумна разглядаць рызыку нанясення шкоды грамадзянскаму насельніцтва”.
Фота: CNN