Zagrożenia ukryte w sieci
Usiłuję wyobrazić sobie, jak wygląda życie detektywa zajmującego się cyberprzestępczością. Codziennie musi przeglądać tysiące, a może nawet miliony obrazów, filmów i stron internetowych, próbując wychwycić choć jedną wskazówkę, która mogłaby pomóc w identyfikacji sprawców i ofiar haniebnych przestępstw. Ciężka, wyczerpująca i wymagająca ogromnej determinacji praca, a przy tym niewyobrażalnie trudna emocjonalnie. Jak nie zwariować, patrząc w oczy tych niewinnych dzieci wykorzystywanych seksualnie przez zwyrodniałych przestępców?
Niestety, ciemna strona internetu, zwana darknetem, stworzyła idealną przystań dla tego rodzaju przemocy. Zaawansowane szyfrowanie i anonimowość czynią ten obszar niezwykle trudnym do wnikliwego przeszukiwania. Coraz doskonalsze technologie pozwalają przestępcom na przemycanie nielegalnych treści, nawiązywanie kontaktów i organizowanie nielegalnych transakcji poza zasięgiem organów ścigania. Wiele spraw kończy się fiaskiem, bo śledczy nie są w stanie dotrzeć do sprawców ukrywających się w mrocznych zakamarkach sieci.
Według danych z Nadrenii Północnej-Westfalii, tylko w pierwszej połowie 2019 roku w tym niemieckim landzie toczonych było aż 1900 spraw dotyczących podejrzeń o wykorzystywanie dzieci lub rozpowszechnianie pornografii dziecięcej. A to zaledwie wierzchołek góry lodowej – biuro zajmujące się tym przestępstwem szacuje, że materiały te zajmują około 3 petabajtów przestrzeni w ukrytej części internetu. Policja w Niemczech dysponuje zaledwie setką etatów ekspertów od cyberprzestępczości na tle seksualnym, więc nie ma żadnych złudzeń, że ta plaga zostanie łatwo opanowana.
Technologie kontra cyberprzestępcy
Na tym tle rodzi się pytanie: czy istnieje jakiekolwiek skuteczne rozwiązanie? Jak można uszczelnić ten nieszczelny system i sprawić, by przestępcy wreszcie poczuli realny strach przed konsekwencjami swoich czynów? Cóż, jak się okazuje, pomocną dłoń wyciąga do nas… sztuczna inteligencja.
W Nadrenii Północnej-Westfalii policja testuje właśnie algorytmy SI, które mają pomóc w identyfikacji zdjęć i stron internetowych z dziecięcą pornografią. Co więcej, te narzędzia mają również pomagać w ustalaniu tożsamości sprawców i ofiar, co znacznie ułatwi pracę śledczym. Opracowane w Niemczech algorytmy będą w stanie odfiltrowywać nielegalne materiały od lawiny innych obrazów, identyfikować twarze, łączyć ze sprawami prowadzonymi wcześniej i wychwytywać zdjęcia, które krążą w sieci mimo wcześniejszych postępowań.
Podobne technologie są już stosowane w innych krajach. Od 2003 roku w Wielkiej Brytanii działa system rozpoznawania twarzy ofiar, który przyspiesza drastycznie proces identyfikacji pedofilów wykorzystujących internet. Algorytmy analizują zdjęcia i filmy odzyskane z komputerów podejrzanych, pomagając ustalić, czy przedstawione na nich dzieci były już ofiarami wcześniejszych spraw.
Nie sposób nie wspomnieć też o rozwiązaniach opracowywanych przez firmy technologiczne. W 2019 roku Google zaprezentowała narzędzie, które siedmiokrotnie przyspiesza wykrywanie nowych materiałów z pornografią dziecięcą. Opiera się ono na unikalnym “podpisie cyfrowym” zdjęć, który jest porównywany z bazą, by wyłapać nawet niewykryte wcześniej kopie nielegalnych treści. Podobne rozwiązania wdrażają także inne giganci, tacy jak Microsoft, Facebook czy Twitter, ściśle współpracując z organizacjami walczącymi z wykorzystywaniem seksualnym dzieci w sieci.
Granice ingerencji w prywatność
Oczywiście, wdrażanie tak zaawansowanych narzędzi sztucznej inteligencji rodzi też pewne kontrowersje. Największym problemem jest kwestia prywatności – czy ingerencja w treści komunikacji online nie jest nadmierną inwigilacją? Afery takie jak ta z wykryciem przez algorytmy Google’a zdjęcia z pornografią dziecięcą w prywatnej wiadomości e-mail wywołały burzliwe dyskusje na ten temat.
Z jednej strony, nie sposób zaprzeczyć, że te rozwiązania ratują życie niewinnych dzieci, narażonych na najstraszniejsze zbrodnie. Ale z drugiej, wykorzystywanie zaawansowanych narzędzi do analizy prywatnej korespondencji budzi uzasadnione obawy. Gdzie przebiega granica między troską o bezpieczeństwo a ingerencją w nasze podstawowe prawa?
To trudny dylemat, który nie ma prostych rozwiązań. Być może część odpowiedzi kryje się w koncepcji “chmury hybrydowej”, testowanej w Niemczech. Według tego modelu, wrażliwe materiały źródłowe byłyby przetwarzane wyłącznie na infrastrukturze organów ścigania, podczas gdy same algorytmy SI szkolone byłyby na bezpiecznych serwerach. W ten sposób można by pogodzić ochronę prywatności z wykorzystaniem potężnych narzędzi technologicznych.
Walka z globalnym problemem
Należy jednak pamiętać, że cyberprzestępczość wobec dzieci ma wymiar globalny. To, co w jednym kraju może być nielegalne, w innym niekoniecznie musi być ścigane. Przykładem może być Rosja, gdzie wykorzystywanie seksualne dzieci powyżej 14. roku życia nie jest uznawane za przestępstwo. To oczywisty problem, jeśli sprawca z Rosji przemyca nielegalne materiały do kraju, gdzie taka działalność jest ścigana.
Dlatego tak kluczowa jest międzynarodowa współpraca organów ścigania i wypracowanie spójnych ram prawnych. Dopiero wtedy technologie takie jak sztuczna inteligencja będą mogły w pełni wykorzystać swój potencjał w walce z tą plagą. Dobrym przykładem jest system baz danych INTERPOL-u, z którego korzysta 192 krajów na całym świecie. To ogromne narzędzie do identyfikacji sprawców i ofiar, które z pewnością można by jeszcze bardziej rozwinąć dzięki algorytmom SI.
Choć walka z cyberprzestępczością wobec dzieci wydaje się niekończącą się batalią, to mam wrażenie, że w końcu zaczynamy dostrzegać światełko w tunelu. Sztuczna inteligencja, w dobrych rękach i przy zachowaniu właściwych proporcji pomiędzy ochroną prywatności a bezpieczeństwem, może stać się skuteczną bronią w tej walce. A my, projektanci stron internetowych na stronie stronyinternetowe.uk, możemy choć w niewielkim stopniu przyczynić się do tego procesu, dostarczając narzędzi, które ułatwiają pracę organom ścigania.