3 kwietnia internetowe wydanie dziennika „The Guardian” opublikowało materiał na temat zastosowania w Strefie Gazy przez Siły Obronne Izraela systemu Lavender, wykorzystującego sztuczną inteligencję do identyfikacji zagrożeń.
Według źródeł „zbliżonych do izraelskich służb specjalnych”, na które powołuje się autor, Siły Obronne Izraela wykorzystywały podczas walk w Strefie Gazy bazę danych zawierającą informacje na temat ponad 37 000 ludzi stanowiących potencjalne cele ze względu na ich domniemane powiązania z Hamasem. Baza danych sprzężona jest z systemem analitycznym Lavender, wykorzystującym algorytmy sztucznej inteligencji. Według wspomnianych źródeł, analitycy odpowiedzialni za obsługę systemu i ich przełożeni zaakceptowali możliwe straty wśród ludności cywilnej, o ile prowadziły one do eliminacji osób z listy. Szczególnie w pierwszych miesiącach walk podejście do losu palestyńskich cywilów (a także izraelskich zakładników) miało być dość „swobodne”. Według cytowanych przez „Guardiana” funkcjonariuszy izraelskich służb, zaletą systemu Lavender ma być działanie bez emocji, na zimno, obce np. szukającym zemsty za zabitych 7 października krewnych i kolegów żołnierzom. Z drugiej jednak strony, udział człowieka w selekcji celów był minimalny, co rodzi pytania o możliwość pomyłki z oczywistymi konsekwencjami dla „celu”. Funkcjonariusz dokonujący selekcji miał na każdy „cel” poświęcać nie więcej niż ok. 20 sekund. Co ciekawe, systemowi narzucono w niektórych przypadkach limit maksymalnej liczby cywilów, których życie mogło być zagrożone podczas ataku na właściwe „cele”. W przypadku mniej znaczących bojowników uznano, że można dodatkowo poświęcić 15‒20 cywilów. Podczas ich zwalczania wykorzystywano więc chętnie amunicję niekierowaną (stosowanie droższej amunicji precyzyjnej miałoby być nieopłacalne), co skutkowało dużymi stratami w infrastrukturze i w ludziach (w Strefie Gazy mogło zginąć nawet ponad 30 000 Palestyńczyków). W przypadku ważniejszych dowódców wielkość „limitu” mogła przekraczać nawet 100 osób postronnych.
Według przedstawicieli Sił Obronnych Izraela, system Lavender i metoda jego wykorzystania, mają być w pełni zgodne z prawem międzynarodowym, a ponadto uzbrojenie niekierowane, w tym lotnicze, miało być stosowane w „w sposób zapewniający wysoką precyzję”. W oficjalnym oświadczeniu zaprzeczono, jakoby system służył bezpośrednio do wyznaczania celów, a jedynie do porównywania danych uzyskanych za pomocą różnych źródeł. Obecnie ocenia się, że Lavender uzyskuje dokładność na poziomie powyżej 90%, co, już wg nieoficjalnych źródeł cytowanych w artykule, skłoniło izraelskie wojsko do wykorzystywania go ‒ może nawet nieformalnie ‒ do rekomendowania celów do likwidacji. Z czasem złagodzono nieco kryteria, wg których przypisywana ma być poszczególnym osobom przynależność do organizacji terrorystycznych.
Sam system został opracowany przez Jednostkę 8200, stanowiącą odpowiednik np. amerykańskiej Agencji Bezpieczeństwa Narodowego. Równolegle wykorzystywany jest system Gospel, służący do identyfikacji obiektów mogących stanowić potencjalne cele wojskowe.
Podobne z tej kategorii:
Podobne słowa kluczowe:
Pełna wersja artykułu
Pełna wersja artykułu
Pełna wersja artykułu
Pełna wersja artykułu
Pełna wersja artykułu