Reklama

Technologie

Defence24 DAY: "Nieszczęściem Polski jest to, że nie ufamy własnym specjalistom"

Uczestnicy panelu pt. "Rola systemów autonomicznych i sztucznej inteligencji w rozwoju zdolności wojsk do prowadzenia działań" podczas Defence24 DAY.
Uczestnicy panelu pt. "Rola systemów autonomicznych i sztucznej inteligencji w rozwoju zdolności wojsk do prowadzenia działań". Od lewej: Jacek Raubo, dr Océane Zubeldia, płk Dariusz Chmielewski, dr hab. Piotr Sankowski, płk Krzysztof Malinowski.
Autor. Defence24.pl

Rozwój systemów autonomicznych będzie następował, a rola człowieka będzie nieuchronnie ustępować. Jednak to człowiek będzie ponosił prawną i moralną odpowiedzialność za wykorzystanie bojowe tego rodzaju rozwiązań. Natomiast Polska ma szansę, by stać się jednym z liderów trwającego wyścigu technologicznego. Jednym z koniecznych warunków jest zaufanie w wiedzę polskich specjalistów. Póki co stanowi to istotny problem.

Reklama

Uczestnikami panelu pod tytułem "Rola systemów autonomicznych i sztucznej inteligencji w rozwoju zdolności wojsk do prowadzenia działań" byli: dr Océane Zubeldia (ekspertka francuskiego Instytutu Badań Strategicznych IRSEM), płk Mariusz Chmielewski (zastępca dowódcy Komponentu Wojsk Obrony Cyberprzestrzeni), płk Krzysztof Malinowski (Agencja Uzbrojenia) oraz dr hab. Piotr Sankowski (prezes IDEAS NCBR). Moderatorem panelu był dr Jacek Raubo (Defence24).

Reklama

Rozmowę rozpoczął płk Chmielewski, który wyjaśnił rozumienie pojęcia "system autonomiczny". Jak stwierdził, "sztuczna inteligencja już dawno jest wdrożona i działa w narzędziach", które każdy z nas ma w swych kieszeniach. Technologia ta "wyszła już ze świata wyłącznie akademickiego, który w tej chwili realizuje pomysły typowo modelowe i koncentruje się na nowych metodach funkcjonowania sztucznej inteligencji".

Autor. Defence24.pl

Zdaniem płka Chmielewskiego dużo istotniejszym pytaniem jest to, czy "my z punktu widzenia organizacyjnego i prawnego w wojsku zezwalamy na to, żeby w pewnych kluczowych elementach sztuczna inteligencja wyręczała człowieka? Obecne procedury są takie, że decyzje są podejmowane na odpowiednim poziomie – czy to politycznym, czy też strategiczno-wojskowym, i nikt nie pozwoli, żeby sztuczna inteligencja podejmowała decyzję o rażeniu bez ingerencji człowieka". W procesie wyboru celu i rozpoznania uczestniczy operator, a to on jest odpowiedzialny za podjęcie decyzji, bowiem tylko "człowiek może podjąć decyzję".

Reklama

Udział człowieka jest niezbędny w przypadku rażenia, a więc w "aspekcie kinetycznym". Niemniej jednak autonomicznie działające mechanizmy są już wykorzystywane, na przykład do wykrywania złośliwego oprogramowania, anomalii w sieci, czy też do analizowania ruchu sieciowego. Tego rodzaju instrumenty mogą wesprzeć również walkę z dezinformacją, o czym świadczy ostatni zorganizowany w Polsce Hackaton. Dowództwo Wojsk Obrony Cybernetycznej było odpowiedzialne za oddzielny konkurs związany z dezinformacją. "W ciągu zaledwie pięciu dni młodzi ludzie dostarczyli bardzo ciekawe narzędzia do dezinformacji. Każde z nich miało co najmniej trzy metody i trzy biblioteki sztucznej inteligencji. W tym ćwiczeniu nie uczyli oni sztucznej inteligencji, lecz wykorzystywali modele pozyskane z Internetu".

Płk Malinowski odniósł się do strategii zakupów tego rodzaju systemów oraz do identyfikacji trendów przez Agencję Uzbrojenia. Potwierdzono, że Agencja Uzbrojenia śledzi najnowsze rozwiązania oraz dominujące trendy komercyjne i innowacyjne. "Czytanie o nowinkach jest pasjonujące, ale na koniec dnia najważniejsze są zdolności operacyjne". W pierwszym etapie Sztab Generalny definiuje, co jest potrzebne, co należy uzupełnić, co rozbudować, a co stworzyć na nowo. Dopiero w drugim etapie odpowiedzialność przejmuje Agencja Uzbrojenia i proceduje w procesie, który nazywa się "definiowaniem wymagań sprzętowych". To właśnie w tej fazie pojawiają się aspekty stricte techniczne. "To jest kluczowe, więc nie możemy zachłysnąć się trendem technicznym, technologicznym, nie mając kontekstu potencjału aplikacyjnego".

Szef Agencji Uzbrojenia jest również pełnomocnikiem ministra do spraw systemów bezzałogowych. Potencjalnie charakteryzują się one dużym stopniem autonomiczności, a także takimi cechami jak sztuczna inteligencja, uczenie maszynowe oraz big data. "To jest obszar, w którym mamy duże pole do popisu i jako Agencja Uzbrojenia będziemy próbowali pobudzić intelektualnie naukowców – także naszych krajowych i też przemysł – ponieważ my nie widzimy na chwile obecną na rynku propozycji komercyjnych w zakresie systemów autonomicznych, szczególnie w aspekcie rażenia. Są takie rozwiązania, na przykład w systemach rozpoznania lub ISR, czy także w rozpoznaniu satelitarnym, gdzie korzystając z technologii edge computing, można wstępie weryfikować dane, odrzucać te nieprzydatne". Przedstawiciel Agencji Uzbrojenia dodał, że być może takie zaawansowane systemy na potrzeby sił zbrojnych są już w rękach wybranych państw, ale te "nie podzielą się nimi od razu". Przypomina to sytuację z lat 90., kiedy to bezzałogowe systemy powietrzne miały Izrael i Stany Zjednoczone, ale nie były one dostępne dla innych państw. Nasze rodzime badania i rozwój, które są często krytykowane za swoje słabości, powinny pójść tą drogą.

Autor. Defence24.pl

Płk Malinowski odniósł się jednocześnie do bardziej wymagającego środowiska, jakim jest ląd. Z punktu widzenia technicznego budowa systemów autonomicznych na bazie technologii dzisiaj dostępnych w środowisku wodnym czy powietrznym jest "bułką z masłem" w porównaniu do systemów lądowych. W sytuacji, w której inne państwa będą z tego powodu mniej chętne, by inwestować w ten sektor, Polska – jako państwo lądowe – powinna wykorzystać niewielką konkurencję. "W wojsku już nie trzeba nikogo przekonywać, że systemy bezzałogowe, szczególnie powietrzne, są niezwykle cenne operacyjnie".

Te rozważania i sugestie znalazły się w dokumencie, któremu Agencja Uzbrojenia nadała tytuł Założenia integracji systemów bezzałogowych" i w którym pochyla się także nad badaniami naukowymi, kierunkami prac rozwojowych oraz nad potencjałem aplikacyjnym. "Dokument jest przygotowany, gotowy do zatwierdzenia na poziomie Rady Modernizacji Technicznej". Tego rodzaju dokumenty powstają również na poziomie NATO. "Agencja Uzbrojenia uważa, że mamy odpowiedni krajowy potencjał intelektualny i wystarczający, by być istotnym partnerem w takich pracach, a nawet by wyznaczać trendy, szczególnie w zakresie systemów lądowych".

Autor. Defence24.pl

Océane Zubeldia przedstawiła francuską perspektywę na sztuczną inteligencję i jej wpływ na systemy wojskowe, a także na rozwój tak zwanej koncepcji wielodomenowości. Istotnym momentem był rok 2018, kiedy to Francuzi utworzyli AID (fr. Agence de l'innovation de défense), która podlega DGA (fr. Direction générale de l'armement), czyli agencji odpowiedzialnej za nowe technologie i pozyskiwanie sprzętu na potrzeby francuskich sił zbrojnych. AID odpowiedzialna jest również za analizy z zakresu sztucznej inteligencji, która jest uważana za Paryż za jeden z priorytetów. Prelegentka podkreśliła znaczenie aspektu etycznego, który nie może być ignorowany zarówno w dyskusjach, jak i pracach w tym zakresie. Dotyczy to szczególnie systemów bojowych. "Musimy znaleźć rozwiązania, które pozwolą działać nam w ramach etyki i prawa" – stwierdziła – "to niezwykle ważne. Dotyczy to także zachowania człowieka w procesie decyzyjnym. Francja podkreśla taką konieczność".

Z kolei dr hab. Piotr Sankowski został zapytany o polską rzeczywistość w zakresie badań nad implementacją nowych rozwiązań, potrzeb oraz trendów. Prelegent postulował, by "koncentrować się na nauce, która jest użyteczna". Podkreślił również, że Polacy brali udział w opracowaniu systemu OpenAI. "Jesteśmy dostrzegani na światowej mapie sztucznej inteligencji – głównie jako źródło świetnych inżynierów. Jeden z nich, absolwent Uniwersytetu Warszawskiego, jest jednym ze współtwórców tego systemu. Na początku pracowało w projekcie dziesięciu Polaków". Dlaczego więc tego rodzaju prace nie są prowadzone w Polsce? Dlaczego "tak naprawdę przegapiliśmy ostatnie pięć lat? Ci ludzie mogliby pracować u nas. Wówczas moglibyśmy być dziesięć lat do przodu, a nie pięć lat do tyłu. Powinniśmy zacząć zastanawiać się nad tym, by być jednym z liderów". Prelegent skrytykował obecny system, w którym tworzy się "naukę na półkę", a więc o ograniczonym przełożeniu na rzeczywistość. Jak dodał, "powinniśmy patrzeć do przodu, a nie naśladować trendy".

Autor. Defence24.pl

IDEAS NCBR powstał, by "ogromne modele językowe wykorzystać do tego, by zapewnić autonomię dronom, by stworzyć mechanizmy, które zapewnią maszynom inteligencję. Już teraz takie systemy jak GPT4 dorównują ludzkiej inteligencji, chociaż oczywiście ta inteligencja nie jest prawdziwa. To jej imitacja. Niemniej jednak jeśli wytworzymy odpowiednie mechanizmy i przekażemy je pojazdom, to będą one realizowały określone zadania równie dobrze co człowiek". Prelegent nie zgodził się jednocześnie z poprzednimi wypowiedziami i niezbędnym udziale człowieka w procesie decyzyjnym. "Jest dla mnie jasne, że za 5-10 lat te pojazdy będą naprawdę autonomiczne i będą w stanie samodzielnie decydować, w tym także używać siły. Już teraz z eksperymentów DARPA w Stanach Zjednoczonych wynika, że myśliwiec sterowany przez sztuczną inteligencję na dziesięć pojedynków z człowiekiem wygrywają dziesięć. Tym samym jest oczywiste, że już w najbliższej przyszłości będą one sterowane w dużej mierze przed sztuczną inteligencję".

Odnosząc się do wypowiedzi poprzednika, płk Mariusz Chmielewski stwierdził, że "wojsko, a szczególnie oficerowie i generacja, która odpowiedzialna jest za budowanie zdolności, bardzo często postrzega naukę jako coś, co nie daje im natychmiastowych skutków". Dodał, że istnieje problem ze zrozumieniem, czym powinien kończyć się projekt naukowy i jak przekształcić go w konkretną technologię. "Uważamy, że mocną stroną Polski są jej inżynierowie. To bardzo mądra grupa ludzi, których nie wykorzystujemy. Bardzo często przychodzą do nas zagraniczne firmy, które oferują nam produkty tworzone przez Polaków. To nieszczęście Polski. Nie wynika to z faktu, iż nie dajemy tym ludziom pracować – my nie ufamy, że potrafią dostarczyć odpowiednią wartość. Apeluję, abyśmy zaufali własnym ludziom".

Podkreślono, że wojsko ma własnych inżynierów i jest "w stanie wytwarzać samemu systemy". Ich pozyskiwanie jest wówczas łatwiejsze, bowiem pozwala to ominąć problemy związane z procesem nabywania od strony trzeciej. Co więcej, wówczas "wiedza zostaje u nas", a Polska zachowuje pełną kontrolę nad technologią. "Bardzo często przekonujemy czynniki polityczne do tego, że chcemy sami zaproponować jakieś rozwiązanie i bardzo często udaje nam się przekonać decydentów do takiej drogi. Możecie być państwo dumni, że ci inżynierowie, którzy noszą mundury, to świetni specjaliści. Tworzą rozwiązania o wysokiej jakości, które interesują potem chociażby Amerykanów".

Płk Malinowski wyraził zadowolenie z faktu, iż "naukowcy deklarują energię i otwartość na odważne patrzenie w przyszłość, są gotowi do szukania innowacyjności. Do tej pory zazwyczaj to wojskowi naciskali na przełom, podczas gdy naukowcy preferowali bezpieczniejsze podejście. Cieszy mnie, że naukowcy podzielają oczekiwania wojska". Jednocześnie prelegent podkreślił, że w Agencji Uzbrojenia jest osobny pion badań i rozwoju. "Często mówi się, że Agencja Uzbrojenia odpowiada jedynie za kupowanie, podczas gdy pozyskiwanie to proces, na który składa się również aspekt badań i rozwoju".

Autor. Defence24.pl

Dlaczego warto o tym mówić? "W debacie często padają takie terminy jak potencjał zbrojeniowy, czy przemysł obronny. Skoro nie mamy super-fabryk, które podbijają swoimi produktami świat, ale mamy intelektualnie rozwiniętych inżynierów, to może powinniśmy oferować usługi w zakresie badań i rozwoju? Mogłoby to stać się naszą mocną stroną. Moglibyśmy ten fakt wykorzystywać później w rozmowach z naszymi partnerami. Przykładowo, potrzebujemy tyle sztuk waszego produktu, ale w zamian oferujemy konkretną usługę z zakresu badań i rozwoju".

Prelegent jednocześnie zaapelował do świata naukowego, by śmielej prezentował pomysły z zakresu "emerging disruptive technologies", w tym szczególnie w takich sektorach jak big data, broń hipersoniczna, sztuczna inteligencja, autonomia działania. "Jeśli naukowcy mają apetyt na ryzyko i otwartość, by myśleć do przodu" oraz są gotowi, by "świadczyć usługę naukową w odniesieniu do trudnych problemów, które będą miały potencjał aplikacyjny", to Agencja Uzbrojenia zaprasza ich do współpracy. Dr hab. Piotr Sankowski obiecał, że nauka "przyjdzie do wojska i będzie rozmawiać". "Nauka powinna być przydatna".

Autor. Defence24.pl

W tym momencie pojawiło się pytanie o wymiar prawny – jak "rozliczyć" sztuczną inteligencję w przypadku błędu? O ile żołnierza można pociągnąć do odpowiedzialności w przypadku błędu, czy to celowego, czy nieświadomego, to sztuczna inteligencja nie ma osobowości prawnej. Odpowiedzi na nie udzielił płk Chmielewski: "w wojsku sytuacja jest prosta. Za decyzje pełną odpowiedzialność podejmuje dowódca. Stąd też tak duża różnica pomiędzy dowodzeniem a zarządzaniem".

Defence24 day, Defence24day
Autor. Defence24
Reklama
Reklama

Komentarze (2)

  1. Był czas_3 dekady

    "Tragedią Polski jest to, że nie ufamy własnym specjalistom"... Dlatego miliardy wypływają za granicę: do USA, Izraela, Korei zamiast pozostawać w kraju.

  2. andys

    "Jednocześnie prelegent podkreślił, że w Agencji Uzbrojenia jest osobny pion badań i rozwoju. " I co z tego wynika? Co ten pion zrobił/zroobi?