Навіны

Як Ізраіль выкарыстоўвае сістэму штучнага інтэлекту “Евангелле” падчас бамбардзіровак Газы – The Guardian

Аналізуючы каментарыі крыніц у ізраільскай арміі і малазаўважныя заявы, зробленыя прадстаўнікамі ЦАХАЛ, брытанскае выданне The Guardian апублікавала даследаванне пра выкарыстанне Ізраілем у вайне супраць ХАМАС сістэмы штучнага інтэлекта. Гэтая сістэма, вядомая як “Евангелле”, значна паўплывала на пошук дапушчальных мэтаў для атак.

Сваю першую вайну з выкарыстаннем штучнага інтэлекта Ізраіль праводзіў яшчэ ў 2021 годзе. Гэта была 11-дзённая вайна, падчас якой прадстаўнікі ізраільскай арміі заявілі пра актыўнае выкарыстанне машыннага навучання і перадавых вылічэнняў. Па выніках канфлікта ў траўні 2021 года Ізраіль заявіў пра небывалы поспех і знішчэнне ваеннай інфраструктуры ХАМАС.

Сучасная вайна паміж Ізраілем і ХАМАС дае ЦАХАЛ беспрэцэдэнтна большыя магчымасці для выкарыстання перадавых ваенных тэхналогій на тэатры баявых дзеянняў. Брытанскае выданне The Guardian сабрала і прааналізавала падрабязнасці пра выкарыстанне ізраільцянамі сістэмы штучнага інтэлекту пад назвай “Хабсора”, альбо “Евангелле” – па-беларуску.

Да 100 мэтаў у дзень

Сакрэтны аддзел адміністрацыі (выяўлення і прызначэння) мэтаў для нанясення ўдараў быў створаны ў ЦАХАЛ у 2019 годзе пры разведвальным упраўленні. У кароткай заяве на вэб-сайце ЦАХАЛа сцвярджалася, што ў вайне супраць ХАМАС яна выкарыстоўвае сістэму на аснове штучнага інтэлекту, каб “выяўляць мэты ў хуткім тэмпе”.

ЦАХАЛ заявіў, што “дзякуючы хуткаму і аўтаматычнаму здабыванню інтэлектуальных дадзеных”, Евангелле дало рэкамендацыі па таргетынгу для сваіх даследчыкаў “з мэтай поўнага супадзення паміж рэкамендацыямі машыны і ідэнтыфікацыяй, праведзенай чалавекам”.

Шматлікія крыніцы, знаёмыя з працэсамі цэлеўказання ЦАХАЛа, пацвердзілі існаванне механізаванага алгарытма, заявіўшы, што ён выкарыстоўваўся для стварэння аўтаматызаваных рэкамендацый для нападу на цэлі – такія, як прыватныя дамы асоб, якія падазраюцца ў дзейнасці ў групоўках ХАМАС або Ісламскі Джыхад.

Авіў Кохаві, які займаў тады пасаду кіраўніка Арміі абароны Ізраіля, заявіў, што новае падраздзяленне, гэта дывізія, “абсталяваная магчымасцямі штучнага інтэлекту” і якая ўключае ў сябе сотні афіцэраў і салдат. У інтэрв’ю, апублікаваным перад бягучай вайной, ён сказаў, што гэта “машына, якая вырабляе велізарныя аб’ёмы дадзеных больш эфектыўна, чым любы чалавек, і ператварае іх у цэлі для ўдару”. Па словах Кохаві, “як толькі гэтая машына была актываваная” падчас 11-дзённай вайны Ізраіля з ХАМАС у маі 2021 года, яна стварала 100 цэляў у дзень.

Цяпер – незалежна ад рангу

Новая дывізія са штучным інтэлектам была створана для вырашэння хранічнай праблемы ЦАХАЛа. У ранейшых аперацыях у Газе ў ізраільскай арміі нярэдка проста не хапала мэтаў для нанясення ўдараў, паколькі высокапастаўленыя чыноўнікі ХАМАС знікалі ў тунэлях у пачатку любога новага наступу

Як паведамляюць крыніцы выдання, такія сістэмы, як Евангелле, дазволілі ЦАХАЛу выяўляць і атакаваць значна большую групу малодшых аператыўнікаў.

Адзін чыноўнік, які працаваў над прыняццем рашэнняў аб цэлеўказанні ў папярэдніх аперацыях у Газе, сказаў, што ЦАХАЛ раней не нападаў на дамы малодшых членаў ХАМАС. І гэта змянілася ў дачыненні да цяперашняга канфлікту – цяпер дамы падазраваных актывістаў ХАМАС становяцца мішэнню незалежна ад рангу.

Згодна з дадзенымі, апублікаванымі ЦАХАЛам у лістападзе, на працягу першых 35 дзён вайны Ізраіль атакаваў 15 000 аб’ектаў у Газе, што значна вышэй, чым у папярэдніх ваенных аперацыях на гэтай густанаселенай прыбярэжнай тэрыторыі. Для параўнання, у вайне 2014 года, якая доўжылася 51 дзень, ЦАХАЛ разбамбіў ад 5000 да 6000 цэляў.

“Гэта сапраўды як фабрыка”

Крыніцы, знаёмыя з тым, як сістэмы на аснове штучнага інтэлекту былі інтэграваныя ў аперацыі ЦАХАЛа, сказалі, што такія інструменты значна паскорылі працэс стварэння мэты.

– Мы рыхтуем мішэні аўтаматычна і працуем у адпаведнасці з кантрольным спісам. – паведаміла крыніца, якая раней працавала ў мэтавым аддзеле, выданню +972/Local Call – Гэта сапраўды як фабрыка. Мы працуем хутка і няма часу ўнікаць у цэль. Мяркуецца, што нас ацэньваюць паводле таго, колькі мэтаў нам удалося стварыць.

У кароткай заяве ЦАХАЛа аб дзейнасці дывізіі па цэлеўказанні высокапастаўлены чыноўнік сказаў, што падраздзяленне “вырабляе дакладныя атакі на інфраструктуру, звязаную з ХАМАС, наносячы пры гэтым вялікую шкоду праціўніку і мінімальную шкоду асобам, якія не ўдзельнічаюць у баявых дзеяннях”.

Былая высокапастаўленая ізраільская ваенная крыніца распавяла Guardian, што аператыўнікі выкарыстоўваюць “вельмі дакладнае” вымярэнне хуткасці грамадзянскіх асоб, якія эвакуіруюцца з будынка незадоўга да ўдару. “Мы выкарыстоўваем алгарытм, каб ацаніць, колькі мірных жыхароў засталося. Ён дае нам зялёны, жоўты, чырвоны, як сігнал святлафора”.

Аднак эксперты ў галіне штучнага інтэлекту і ўзброеных канфліктаў, якія размаўлялі з Guardian, заявілі, што скептычна ставяцца да сцвярджэнняў, што сістэмы на аснове штучнага інтэлекту памяншаюць шкоду грамадзянскаму насельніцтва, заахвочваючы больш дакладнае нацэльванне.

“Паглядзіце на фізічны ландшафт Газы. – сказаў Рычард Моес, даследчык, які ўзначальвае групу Article 36, якая змагаецца за зніжэнне шкоды ад зброі – Мы назіраем паўсюднае руйнаванне гарадской тэрыторыі з дапамогай цяжкай выбуховай зброі, таму заявы аб дакладнасці і абмежаванасці прымянення сілы не пацвярджаюцца фактамі.

Фота: Maxar Technologies/Reuters

Іншая крыніца паведаміла выданню, што Евангелле дазволіла ЦАХАЛу запусціць “фабрыку масавых забойстваў”, у якой “акцэнт робіцца на колькасці, а не на якасці”. Чалавечае вока, па яго словах, “будзе аглядаць цэлі перад кожнай атакай, але яму не прыходзіцца марнаваць на гэта шмат часу”.

У некаторых экспертаў, якія даследуюць штучны інтэлект і міжнароднае гуманітарнае права, такое паскарэнне выклікае шэраг праблем. Доктар Марта Бо, навуковы супрацоўнік Стакгольмскага міжнароднага інстытута даследавання праблем міру, сказала, што нават калі “людзі знаходзяцца ў курсе”, існуе рызыка таго, што ў іх узнікне “схільнасць да аўтаматызацыі” і “празмерная залежнасць ад сістэмы, якія аказваюць занадта вялікі ўплыў на складаныя чалавечыя рашэнні”.

Мойес з Article 36 сказаў, што, абапіраючыся на такія інструменты, як Евангелле, камандзірам “перадаецца спіс мэтаў, створаны кампутарам”, і яны “неабавязкова ведаюць, як гэты спіс быў створаны, або маюць магчымасць адэкватна аналізаваць і ставіць пад сумнеў рэкамендацыі па таргетынгу”.

“Існуе небяспека, – дадаў ён – што калі людзі пачынаюць спадзявацца на гэтыя сістэмы, яны становяцца вінцікамі ў механізаваным працэсе і губляюць здольнасць разумна разглядаць рызыку нанясення шкоды грамадзянскаму насельніцтва”.

Фота: CNN

Апошнія навіны

Прэпарат для зніжэння вагі стаў прарывам у медыцыне – ён зніжае рызыку інсультаў на 20%

Семаглутыд – прэпарат для зніжэння вагі і барацьбы з дыябетам – дэманструе выдатныя вынікі па…

14 мая, 2024

18 000 куранятак скраў з Шклоўскай птушкафабрыкі супрацоўнік прадпрыемства

39-гадовы інжынер птушкафабрыкі ў Шклове на працягу некалькіх месяцаў выкрадаў з інкубатарнай сутачных куранятак-бройлераў і…

14 мая, 2024

Частку Бабруйскай крэпасці прадаюць за адну базавую

Двухпавярховы склад з часткай абарончага вала Бабруйскай крэпасці выстаўлены на аўкцыён. Пасля продажу двух складоў…

14 мая, 2024

Дзевяцігадовы хлопчык атрымаў апёкі 10% цела – ўспыхнула бутэлька з бензінам

Падчас спальвання смецця жыхаром вёскі Лубнішча Магілёўскага раёна пацярпеў яго сын 2015 года нараджэння. Як…

14 мая, 2024

Магілёвец атрымаў два гады калоніі за слова “лукож.пый”

Магілёўскі прадпрымальнік Павел Макаранка атрымаў два гады зняволення па артыкуле за абразу Лукашэнкі – паведамляе…

13 мая, 2024

Дзесяць магілёўскіх аўтобусаў памяняюць расклад і маршрут на Радуніцу

Дзеля падвозу людзей да могілак дзесяць аўтобусных маршрутаў Магілёва памяняюць свой расклад і схему праезду…

13 мая, 2024