Błażej Sajduk: Big data – polityczne i militarne aspekty rewolucji technologii informatycznych

Błażej Sajduk: Big data – polityczne i militarne aspekty rewolucji technologii informatycznych

USAF_Cyberwarriors[1]

dr Błażej Sajduk

Dwie technologie wywarły i na pewno wywrą w przyszłości wpływ na sposób, w jaki państwa zachodnie (aktualnie przede wszystkim Stany Zjednoczone) będą prowadzić działania przeciwko terroryzmowi. Z jednej strony minioną dekadę charakteryzował niezwykle dynamiczny rozwój robotyki, z drugiej strony ostatnie lata to czas rewolucji związanej z wykorzystywaniem tzw. olbrzymich zbiorów/baz danych (ang. big data).

Wykorzystywanie obu zdobyczy techniki ma ze sobą wiele wspólnego, obie wynikają z nienotowanego wcześniej rozwoju technologii informacyjnych. W końcu– obydwie technologie wywrą wpływ na bardzo wiele aspektów ludzkiego życia. Ponieważ o rewolucji w dziedzinie robotyki pisałem już w innym miejscu[1], poniższe uwagi będą dotyczyć fenomenu związanego ze światem wirtualnym, w tym również Internetem, nazwanym słusznie przez Edwarda Snowdena najważniejszym wynalazkiem w dziejach całej ludzkości[2]. Niemal pewne wydaje się, że również i nasz kraj będzie podążał za tymi trendami, tym samym także polskie społeczeństwo będzie musiało zmierzyć się z problemami podobnymi do tych, które aktualnie rozpalają opinię publiczną za oceanem i w krajach Europy Zachodniej.

Wciąż jeszcze nie umilkły echa publikacji z początku czerwca tego roku[3], z których świat, dzięki informacjom uzyskanym od wspomnianego już E. Snowdena – informatora z samego serca amerykańskiego wywiadu elektronicznego, dowiedział się o istnieniu tajnego programu PRISM (pol. pryzmat). Program ten ma na celu, jak mówią jego przeciwnicy, masową inwigilację (również amerykańskich obywateli). Poniższy tekst skupia się na trzech wątkach. Po pierwsze, na zagadnieniu „cyberwojny” – pojęciu często pojawiającym się w debacie na temat specyfiki stosunków międzynarodowych XXI wieku. Po drugie, wywód koncentruje się na wymiarze, zdaniem autora nie mniej ważnym od ofensywnego zastosowania cyberprzestrzeni, jakim jest zmiana związana z możliwością gromadzenia i przetwarzania olbrzymich zbiorów danych. To właśnie ona w najbliższym czasie będzie miała wpływ na najważniejsze obszary ludzkiego życia. Po trzecie, tekst przywołuje opinie na temat możliwych konsekwencji związanych z budowaniem bezpieczeństwa w oparciu o informacje przechwytywane z wirtualnej rzeczywistości.

Cyberwojny

Cyberprzestrzeń uznaje się, obok ziemi, powietrza, wody (i przestrzeni kosmicznej), za kolejny teatr ludzkiej aktywności i w związku z tym często zwraca się uwagę na fakt jej militaryzacji. Należy jednak pamiętać, że ataki, które udaje się zidentyfikować jako wrogą działalność obcych państw wymierzoną w inne państwa (lub/i ich gospodarkę), nie należą do zbyt licznych. W uproszczeniu można powiedzieć, że znakomita większość niepożądanej aktywności w sieci ma charakter crackerski, (cyber)przestępczy lub nieczystej konkurencji biznesowej[4].

Ponieważ osoby penetrujące zawartość cudzych komputerów kierują się wieloma zróżnicowanymi przesłankami, bardzo trudno jednoznacznie powiązać ich działania z interesami konkretnych państw[5]. W okresie od 2001 roku do 2011 pomiędzy 20 państwami, badanymi przez Brandowa Valeriano i Ryana Manessa, które łączą napięte relacje polityczne, miało miejsce 95 ataków cybernetycznych, przy czym ataków o skali szkód porównywalnej do tej wywołanej przez wirusy Stuxneti Flame[6] było tylko trzy. Badacze podkreślają, że „zwykły” atak terrorystyczny jest 600 razy bardziej prawdopodobny od ataku z cyberprzestrzeni[7]. Z drugiej jednak strony, w mediach coraz częściej pojawiają się informacje dotyczące działalności szpiegowskiej, czego niedawnym przykładem była informacja, jakoby chińskim agentom-crackerom udało się wykraść plany konstrukcyjne amerykańskiego uzbrojenia[8].

Departament Obrony USA (ang. US Department of Defence, DOD) nie lekceważy zagrożenia, w związku z czym wydatki na cyberbezpieczeństwo są jedną z niewielu pozycji w budżecie, na którą, pomimo wszechobecnych cięć budżetowych, nakłady będą wzrastać. W nachodzącym roku budżetowym amerykańskie cybersiły mają ulec reorganizacji. Ich zadania skoncentrują się na trzech aktywnościach: obronie przed cyberatakami infrastruktury DOD, możliwości unieszkodliwiania wrogich cybersił oraz wsparciu obrony wrażliwej infrastruktury kraju[9]. Szacuje się, że na samo cyberdowództwo Pentagon wyda w 2013 roku 3,4 mld dolarów[10]. Warto w tym miejscu pamiętać, że wydatki na cyberbezpieczeństwo rozsiane są również po innych pozycjach budżetowych[11]. Aktualnie w amerykańskim Departamencie Obrony trwają prace nad nową strategią cyberbezpieczeństwa[12]. W jej ramach może się znaleźć stwierdzenie, że siły zbrojne USA odpowiedzą na cyberatak atakiem konwencjonalnym[13].

Również w Polsce pojawiają się głosy mówiące, iż cyberobrona jest jednym z najważniejszych priorytetów polskich sił zbrojnych[14]. Znalazło to również odzwierciedlenie w nowoprzyjętej „Białej księdze bezpieczeństwa narodowego RP”[15]. Według raportu nt. stanu cyberbezpieczeństwa Rzeczypospolitej Polskiej w 2012 roku, opracowanego przez działający w ramach ABW Rządowy Zespół Reagowania na Incydenty Komputerowe, odnotowano 1186 zgłoszeń, z których 457 zostało zakwalifikowanych jako faktyczne incydenty. Ponadto system ARAKIS-GOV, odpowiedzialny za monitorowanie zagrożeń w Internecie, odnotował 20 327 alarmów, czyli ilość porównywalną z tą z roku wcześniejszego[16].

Warto też wspomnieć o przyjętej przez polski rząd 25 czerwca 2013 roku, przygotowanej przez Ministerstwo Administracji i Cyfryzacji „Polityce ochrony cyberprzestrzeni Rzeczypospolitej Polskiej”, która zakłada, że jej wdrożenie „nie będzie implikować dodatkowych środków z budżetu państwa”[17]. Pozostaje wierzyć, że również polskie władze z odpowiednim zaangażowaniem podejdą do kwestii bezpieczeństwa systemów teleinformatycznych, a działające od 1 czerwca 2013 rokuNarodowe Centrum Kryptologii z gen. Krzysztofem Bondarykiem sprosta wyzwaniom bezpieczeństwa w XXI wieku[18].

Działania związane z cyberprzestrzenią tylko pozornie ograniczą zainteresowanie wywiadowcze żywymi ludźmi, czego najlepszymi przykładami były np. konieczność udziału człowieka w zainfekowaniu irańskiej infrastruktury atomowej czy seria zagadkowych zamachów na irańskich fizyków współtworzących program atomowy tego kraju[19]. Wydaje się więc, że nie mniej ważna od ofensywnych możliwości cyberbroni jest działalność wywiadowczo-analityczna, którą dzięki zdobyczom najnowszej techniki można prowadzić na niespotykaną w historii skalę.

Big data

Aktualna możliwość gromadzenia olbrzymich ilości danych stała się osiągalna m.in. dzięki spadkowi cen nośników pamięci, sensorów oraz rozwojowi szybkich połączeń internetowych. Dodatkowo, zaawansowana statystyka wsparta współczesną technologią informatyczną i mocą obliczeniową nowoczesnych komputerów umożliwiła analizowanie zbiorów danych tak dużych, jak nigdy wcześniej. Raport The McKinsey Global Institute nazywa big data piątą falą rewolucji technologicznej, wcześniejsze stanowiły duże komputery typu mainframe, komputery osobiste, Internet i Web 1.0, czwarta fala to urządzenia mobilne i Web 2.0[20].

Człowiek zawsze tworzył dane, jednak jeszcze nigdy w dziejach świata tak wiele informacji nie było tworzonych przez pojedynczą osobę, do tego w formie cyfrowej, a więc umożliwiającej analizowanie i obróbkę. Obecnie ilość informacji przesyłanych za pomocą Internetu oraz skalę gromadzenia danych, która interesuje służby specjalne, można mierzyć wykorzystując abstrakcyjną dla przeciętnego człowieka wielkość – jottabajta (YB, czyli1024)[21].

By lepiej uzmysłowić tę skalę, można odwołać się do kilku przykładów: ilość wytwarzanych informacji w cyfrowym świecie podwaja się co trzy lata, a mniej niż dwa procent wszystkich informacji nie jest cyfrowa[22], w roku 2011 ilość wytworzonych informacji wyniosła ok. 1,8 zettabajta (1021), czyli1,8 tryliona gigabajtów[23]. Każdej minuty ma miejsce m.in. 277000 logowań oraz 6 milionów odsłon Facebooka, 100 000 nowych tweetów jest wysyłanych, a 30 godzin nowych filmów umieszczanych na serwisie YouTube[24]. Inaczej, jeśli jeden dysk o pojemności 1 terabajta (TB, 1012) kosztowałby 100 dolarów, to za jeden dysk o pojemności 1 jottabajta trzeba by zapłacić trylion dolarów (1018)[25].

Współcześnie wszyscy korzystający ze zdobyczy techniki wytwarzają olbrzymie ilości danych. Rozpowszechnienie się technologii GPS (ang. Global Positioning System) umożliwiło np. lokalizowanie osób i rzeczy z bardzo dużą precyzją. Tym samym przy okazji codziennego funkcjonowania powstają produkty uboczne naszej aktywności – strumienie danych[26]. Każdy, kto kupował książki w Internecie, wie, że osoby odpowiedzialne za prowadzenie takich serwisów już dawno wzbogaciły je o skrypty podpowiadające użytkownikowi, co jeszcze mogłoby go zainteresować. Celem jest ułatwianie klientom dokonywania wyborów i zachęcanie ich do wydawania jeszcze większej ilości pieniędzy. Dlatego też firmom zależy na gromadzeniu jak największej ilości informacji na temat wyborów dokonywanych przez klientów. Chodzi o to, by dopasować usługę do indywidualnego odbiorcy (by ją spersonalizować), ale również, by tworzyć olbrzymi zbiór danych, które w przyszłości pomogą podejmować biznesowo trafne decyzje strategiczne.

Takie olbrzymie zbiory charakteryzują się dużą ogólnością, dotyczą bowiem niezindywidualizowanych strumieni danych, takich jak np. długość odwiedzin na stronie internetowej czy też długość rozmowy telefonicznej, informacje odnośnie innych produktów zamówionych przez klienta lub innych numerów telefonów, z którymi kontaktował się dany numer, ilość polubień (lajków) na Facebooku (są to tzw. metadane), i zazwyczaj, choć są powiązane z konkretnymi osobami, w zamyśle nie są gromadzone w celu ich identyfikacji. Mają natomiast umożliwić ustalanie korelacji oraz prawdopodobieństwa występowania pewnych zjawisk. Co ciekawe, ustalenie związku przyczynowo-skutkowego nie jest najważniejsze, analityków takich zbiorów danych nie interesuje poznanie kluczowych dla nauk społecznych odpowiedzi na pytanie „dlaczego?”, lecz ich prognozowanie. Celem jest ustalenie prawdopodobieństwa wystąpienia pewnego zjawiska w przyszłości na podstawie analizy wcześniejszych przypadków. Warto jednak zauważyć, że na próbę, na podstawie której tworzy się prognozę, składa się olbrzymia ilość danych. Jest to coś, do czego wcześniej analitycy nie mieli dostępu. Współcześnie badania ilościowe w naukach społecznych opierają się zazwyczaj na badaniu jakiegoś wycinka populacji. Niektórzy badacze optymistycznie wierzą, że zbliżamy się do momentu, w którym będzie można powiedzieć, że próba, w oparciu o którą tworzy się analizy, będzie tożsama z całą populacją[27].

Jak wyżej wspomniano, osób analizujących takie dane nie interesuje powód możliwej korelacji, ważne jest natomiast, że z dużym prawdopodobieństwem można wskazać jej istnienie, a dzięki temu podjąć decyzje biznesowe albo związane z ludzkim bezpieczeństwem[28]. Innymi słowy, choć wciąż mamy do czynienia z krytykowanym co najmniej od czasów Davida Hume’a założeniem nt. przyczynowości i rozumowaniem indukcyjnym, to jednak próba, na podstawie której się ono odbywa, jest tak olbrzymia, a zatem wiarygodna, że może stanowić przesłankę do podejmowania skutecznych decyzji. Kluczowe jest przekonanie towarzyszące wszystkim orędownikom wykorzystywania olbrzymich zbiorów danych, że ilość gromadzonych informacji przekłada się na jakość powstających na ich podstawie analiz. W efekcie rodzi się argument, iż należy gromadzić wszelkie dostępne dane, ponieważ tylko wówczas będzie możliwe skuteczne prognozowanie[29].

Wszystkie informacje mogą zostać przełożone na język baz danych[30], w związku z czym pojawia się możliwość powstania gałęzi gospodarki opartej o handel bazami danych. Udostępnienie w 1983 roku całemu światu sygnału GPS przez prezydenta Ronalda Reagana wyzwoliło nowy impuls gospodarczy. Obecnie w Ameryce około 3 milionów miejsc pracy jest uzależnionych od możliwości wykorzystywania GPS. Przewiduje się, że decyzja prezydenta Baracka Obamy z 9 maja 2013 roku o udostępnianiu wszystkich danych, które nie zagrażają bezpieczeństwu państwa, zgromadzonych i tworzonych przez urzędy federalne również może się pozytywnie przyczynić do rozwoju gospodarczego[31].

Oczywiście, to nowe podejście do danych ma nie tylko biznesowe zastosowania, stało się ono aktualnie jednym z ważniejszych narzędzi wykorzystywanych do przeciwdziałania terroryzmowi. W celu opracowywania tak olbrzymich ilości danych specjalna służba kryptologiczna – Agencja Bezpieczeństwa Narodowego (ang. The National Security Agency, NSA; niektórzy rozwijają ten akronim jako: „nigdy nic nie mów” – ang. never say anything[32]), planuje oddanie do użytku już we wrześniu 2013 roku powstającego w stanie Utah (tajnego) centrum analitycznego. Koszt jego budowy to 2 miliardy dolarów.

Big data czy Big Brother? – National Security Agency

Służby wywiadowcze USA sukcesywnie dążą do tego, by posiadać pełną świadomość informacyjną (ang. Total Information Awareness); program o takiej nazwie został zainicjowany w 2003 roku za czasów administracji prezydenta Georga W. Busha[33]. Kongres szybko wstrzymał jednak jego finansowanie, a powstałe w jego ramach oprogramowanie trafiło do NSA.

Marzenie o prowadzeniu analiz na próbie równej całej badanej populacji powoli nabiera realnych kształtów, głównie dzięki oprogramowaniu wyprodukowanemu na potrzeby NSA przez firmę Narus, które umożliwia przeszukiwanie baz danych stworzonych z zupełnie różnych źródeł: adresów e-mail, numerów telefonów, numerów kont bankowych, miejsc podróży, adresów zamieszkania itp.[34] W sytuacji, w której zachodziło podejrzenie, że dany numer wykorzystywany był do prowadzenia działalności wymierzonej w bezpieczeństwo USA, można było więc rozpocząć proces analizowania danych (ang. data mining) w poszukiwaniu innych informacji. Takie odtwarzanie sieci powiązań miało zapobiegać potencjalnym zagrożeniom o charakterze terrorystycznym. Sedno powyższego podejścia sprowadzało się do tego, by nie kolekcjonować tych danych, które wydają się potrzebne w konkretnym momencie, ale by gromadzić wszystkie dostępne informacje.

Kolejnym powodem, dla którego powstało centrum w Utah, jest wsparcie amerykańskich służb wywiadowczych w odwiecznym wyścigu wywiadowczych „miecza i tarczy”. We współczesnej odsłonie rywalizacja ta obejmuje wysiłki zmierzające go tego, by kodować przesyłane informacje i próbować je odszyfrować. Aktualnie najpowszechniej wykorzystywanym sposobem kodowania informacji jest symetryczny szyfr blokowy opracowany w 1997 roku (ang. Advanced Encryption Standard). Znaczna część informacji przesyłanych przez Internet (w tym znajdujących się w tzw. głębokim Internecie) jest zabezpieczana kluczami o długości 128, 192 lub 256 bitów. By złamać 128-bitowe kodowanie należy podjąć 1036 prób[35].

Prawdopodobieństwo, że się to uda zrobić szybciej uzależnione jest od dwóch elementów: po pierwsze, ilości materiału, który próbuje się odszyfrować – im więcej różnych wiadomości, tym większa próba, na podstawie której program może podejmować działania w celu wyłuskania kodu, czyli tym większa szansa na jego szybsze złamanie. Potrzeba również olbrzymiej mocy obliczeniowej. Szybkość obliczeniową superkomputerów mierzy się petaflopami (PFlops, co oznacza 1015 operacji na sekundę). Dla porównania czterordzeniowy procesor Intel Core 2 Duo 3,0 GHz ma moc obliczeniową ok. 48 GFlops (109 na sekundę)[36]. Aktualnie cztery najszybsze komputery na świecie należą odpowiednio do Chin (Tianhe-2 z prawie 34 PFlops), dwa do USA (Titan z ponad 17,5 PFlops i Sequoia z 17,1 PFlops) oraz jeden do Japonii (K Komputer z 10,51 PFlops)[37].

Celem centrum w Bluffdale (w stanie Utah) jest więc najprawdopodobniej zapewnienie wystarczającej ilości danych, by (tajny) superkomputer w Oak Ridge (w stanie Tennessee) mógł rozkodowywać wiadomości obcych rządów, organizacji międzynarodowych, korporacji itp. Należy przy tym pamiętać, iż zaszyfrowane, ale już zgromadzone informacje również są bardzo cenne, ponieważ im jest ich więcej, tym większa jest szansa na ich odkodowanie, nie ma bowiem informacji nie do rozszyfrowania.

Cyber(nie)bezpieczeństwo

W związku z materiałami ujawnionymi przez E. Snowdena nt. programu PRISM duże emocje wzbudzają dwa fakty: po pierwsze, możliwość inwigilowania amerykańskich obywateli oraz, po drugie, szpiegowanie sojuszników USA. Oczywiście opisany powyżej proces budowy baz danych nie może (nie powinien) łamać obowiązującego prawa, jednak czy tak naprawdę było, nie jest do końca jasne. Jego legalność miała być gwarantowana m.in. przez ograniczenia narzucone w obowiązującym od 2008 roku prawie do prowadzenia działalności wywiadowczej w stosunku do obcych państw (ang. Foreign Intelligence Surveillance Act[38]) oraz de facto każdego nieamerykańskiego obywatela na kuli ziemskiej. Ustawa ta bowiem zabrania inwigilacji amerykańskich obywateli i zbierania informacji wytwarzanych na terytorium Stanów Zjednoczonych, a moc jej obowiązywania została prolongowana kolejny raz przez Kongres USA w 2012 roku.

W powyższej kwestii problematyczne pozostaje kilka aspektów. Prezydent Barack Obama zapewniał Amerykanów, że akcja gromadzenia informacji (i szerzej, akcja wywiadowcza) dotyczyła wyłącznie sfery pozakrajowej (jak powszechnie wiadomo, działania operacyjne na terytorium USA ma prawo prowadzić FBI). Obrońcy programu PRISM zauważają, iż już od dłuższego czasu rozróżnienie na sferę wewnątrzkrajową i międzynarodową stało się mocno zatarte[39].

Pikanterii całej sprawie nadaje fakt dwuznacznej współpracy rządu USA z korporacjami takimi jak Google (właściciel YouTube), Microsoft (właściciel Hotmail i Skype), Yahoo, Facebook, AOL, Apple i PalTalk. Wiadomo jednak, że z dystansem na prośby NSA zareagował Twitter (zrzeszający dużo mniej użytkowników niż wymienione wcześniej firmy). Co więcej, w przypadku Google’a i Facebooka zakładano powstanie osobnych, tajnych wirtualnych konsol służących do pozyskiwania informacji przez rządowe agencje[40].

Legalność gromadzonych materiałów miała gwarantować również ich specyfika, zbierano bowiem metadane, które co do zasady miały uniemożliwiać łatwą identyfikację rozmówców[41]. Krytycy podnoszą fakt, iż do identyfikacji osoby za pomocą odcisku palca potrzebne jest ustalenia aż 12 punktów, podczas gdy za pomocą zarejestrowanych czterech logowań telefonu do sieci komórkowej (czas i miejsce) można ustalić tożsamość danego człowieka z 95-procentową pewnością, dysponując dwoma logowaniami prawdopodobieństwo ustalenia tożsamości wynosi 50%[42]. Należy również pamiętać, iż rządy Wielkiej Brytanii i Stanów Zjednoczonych bardzo ściśle ze sobą współpracują[43].

Brytyjczycy infiltrują Internet nie mniej sprawnie od Amerykanów – ułatwia im to fakt, że przez ich terytorium biegnie ponad 200 podmorskich łączy światłowodowych. Na Wyspach za działalność analogiczną do NSA odpowiada Centrala Łączności Rządowej(ang. Government Communications Headquarters, GCHQ)[44].

W związku z powyższym zachodzi podejrzenie, że służby wywiadowcze obu państw wymieniały się informacjami na temat własnych obywateli, dzięki czemu żadna z nich nie musiała gromadzić danych samodzielnie i tym samym żadna nie złamała własnego wewnątrzkrajowego prawa. Szefostwo NSA zarzeka się, iż rutynowo nie analizowano treści rozmów (smsów, e-maili czy tweetów). Do skuteczności tych rozwiązań oraz tego, że mieściły się w ramach amerykańskiego prawa przekonywał w zeznaniach przed senacką komisją aktualny szef NSA, Keith B. Alexander, który oświadczył ponadto, iż dzięki działalności podległych mu służb po 11 września 2001 roku udaremniono ponad pięćdziesiąt prób terrorystycznych wymierzonych w Amerykę i jej sojuszników[45].

Bardzo wiele wskazuje na to, że Amerykanie najprawdopodobniej szpiegowali również swoich europejskich sojuszników. Wydaje się jednak, że larum, jakie podniosło się po tej informacji jest skierowane w dużej mierze na potrzeby wewnętrznej rywalizacji politycznej w poszczególnych „poszkodowanych” krajach[46]. Fakt, że firmy i kraje szpiegują siebie nawzajem, nie powinien jednak nikogo dziwić, tak po prostu zawsze było, jest i będzie.

Niemiecka minister sprawiedliwości w bardzo gorzkich słowach skomentowała doniesienia o opisanej powyżej amerykańskiej aktywności wywiadowczej. Sabine Leutheusser-Schnarrenberger zauważyła, że sprawa PRISM każe postawić pytanie o rolę Internetu w kształtowaniu równowagi pomiędzy ludzką wolnością a koniecznością zagwarantowania obywatelom bezpieczeństwa[47]. Kontynuując jej tok myślenia, warto zapytać o konsekwencje dostępności wielkich zbiorów danych. Bez wątpienia dzięki nim współczesna odsłona walki z terroryzmem przybrała nowe oblicze. Rodzi się jednak ważne pytanie o to, czy można zaufać statystycznym modelom, które powstają dzięki kwerendom przepastnych baz danych, czy fakt, że metoda ta sprawdza się w innych dziedzinach stanowi wystarczające uzasadnienie dla jej wykorzystania w stosunku do własnych obywateli?[48]

Jest to szczególnie delikatna kwestia, biorąc pod uwagę amerykańską opinię publiczną, wśród której wciąż żywa jest pamięć afery Watergate z czasów prezydenta Richarda Nixona. Z tyłu głowy zawsze pozostaje pytanie, czy tego rodzaju wiedza nie mogłaby zostać wykorzystana do nieuczciwej rywalizacji politycznej[49]. Z drugiej strony niektórzy publicyści, w tym np. Thomas L. Friedman, ostrzegają, że jeśli odrzuci się aktualne programy wywiadowcze oparte na metadanych, to może się zwiększyć ryzyko ataku terrorystycznego, a po takim wydarzeniu opinia publiczna z obawy o bezpieczeństwo może wyrazić zgodę na dużo bardziej inwazyjne metody wywiadowcze. Wówczas dopiero wolności obywatelskie mogłyby zostać poważnie zagrożone[50].

***

Nie ulega wątpliwości, że najnowsze zdobycze techniki umożliwiają coraz lepsze dbanie o nasze bezpieczeństwo, jednak, paradoksalnie, za każdym razem równie ważne jak kwestie skuteczności stają się zagadnienia moralne. Nie wolno zapomnieć, że metadane nie są faktami, stąd ważne jest, aby pamiętać, iż nieprawidłowo zinterpretowane ogromne zasoby danych mogą przyczyniać się do ogromnych problemów[51].

 


[1]B. Sajduk, Rewolucja w dziedzinie robotyki. Wybrane aspekty najnowszej rewolucji w dziedzinie obronności,

http://www.nowapolitologia.pl/politologia/stosunki-miedzynarodowe/rewolu….

[2]Edward Snowden: the whistleblower behind the NSA surveillance revelations, „The Guardian” 2013, 10 VI, http://www.guardian.co.uk/world/2013/jun/09/edward-snowden-nsa-whistlebl….

[3]NSA Prism program taps in to user data of Apple, Google and others,http://www.guardian.co.uk/world/2013/jun/06/us-tech-giants-nsa-data/print; U.S., British intelligence mining data from nine U.S. Internet companies in broad secret program,http://www.washingtonpost.com/investigations/us-intelligence-mining-data….

[4]Potwierdzają to statystyki prowadzone np. przez portal Hackmagedon.com. Zob. May 2013 Cyber Attacks Statistics, http://hackmageddon.com/2013/06/09/may-2013-cyber-attacks-statistics/; 2013 Cyber Attacks Timeline Master Index, http://hackmageddon.com/2013-cyber-attacks-timeline-master-index/.

[5]Opublikowany w lutym 2013 roku raport firmy Mandiant wskazuje na Chińską Republikę Ludową jako siłę powiązaną i finansującą działania szpiegowskie chińskiej grupy tzw. Zaawansowanego Trwałego Zagrożenia 1 (ang. Advanced PersistentThreat, APT1). Raport wskazuje, że grupa ta może być tożsama z jednostką 61398 Chińskiej Armii Ludowo-Wyzwoleńczej. Jednostka ta odpowiedzialna jest za liczne ataki cybernetyczne, m.in. na infrastrukturę  elektroenergetyczną w USA. Zob. APT1 Exposing One of China’s Cyber  Espionage Units, 19 II 2013, http://intelreport.mandiant.com/Mandiant_APT1_Report.pdf.

[6]Dwa powiązane ze sobą wirusy komputerowe opracowane najprawdopodobniej przez USA i Izrael w celu wykradania informacji z zainfekowanych komputerów, mające możliwość nawet włączania mikrofonu i wykradania tak zarejestrowanego głosu. Ekspert firmy tworzącej oprogramowanie antywirusowe Kaspersky Lab uznał w maju 2012 roku wirus Flame za punkt przełomowy, na nowo definiujący pojęcie cyberwojny i cyberszpiegostwa. Zob. A. Gostev, The Flame: Questions and Answers, 28 V 2012,http://www.securelist.com/en/blog/208193522/The_Flame_Questions_and_Answers.

[7]B. Valeriano, R. Maness, The Fog of Cyberwar, 21 XI 2012,http://www.foreignaffairs.com/articles/138443/brandon-valeriano-and-ryan….

[8]Zob. Drony, rakiety, lasery. Chińscy hakerzy poznali tajemnice US Army, 29 V 2013,http://www.tvn24.pl/wiadomosci-ze-swiata,2/drony-rakiety-lasery-chinscy-….

[9]Defense Budget  Priorities and Choices Fiscal Year 2014, IV 2013,s. 14,http://www.defense.gov/pubs/DefenseBudgetPrioritiesChoicesFiscalYear2014….

[10]DOD Needs Industry’s Help to Catch Cyber Attacks, Commander Says, 27 III 2012,http://www.defense.gov/news/newsarticle.aspx?id=67713.

[11]Zob. F. Y. Rashid, Obama Budget Outlines Federal CyberSecurity Spending, 12 IV 2013,http://securitywatch.pcmag.com/security/310295-obama-budget-outlines-fed….

[12]Ch. Pellerin, DOD at Work on New Cyber Strategy, Senior Military Advisor Says, 1 VII 2013, http://www.defense.gov/news/newsarticle.aspx?id=120397.

[13]G. Ratnam, Pentagon Revising Rules for Cyber-Attack Response, Dempsey Says, 27 VI 2013, http://www.businessweek.com/news/2013-06-27/pentagon-revising-rules-for-….

[14]Szef BBN dla PAP: obywatele są bezbronni wobec zagrożeń takich jak PRISM,18 VI 2013,http://www.bbn.gov.pl/portal/pl/2/4686/Szef_BBN_dla_PAP_obywatele_sa_bez….

[15]Biała księga bezpieczeństwa narodowego RP, Warszawa 2013, s. 62-64, 116-117, passim,http://www.spbn.gov.pl/download/4/13631/Biala_Ksiega_inter_mm.pdf.

[16]Raport o stanie bezpieczeństwa cyberprzestrzeni RP w 2012 roku, Warszawa 2013,  s. 5, 8,http://www.cert.gov.pl/download/3/158/Raport_o_stanie_bezpieczenstwa_cyb….

[17]Polityka Ochrony Cyberprzestrzeni Rzeczypospolitej Polskiej, VI 2013,http://mac.bip.gov.pl/fobjects/download/5399/polityka-ochrony-cyberprzes….

[18]UJAWNIAMY! Narodowe Centrum Kryptologii już istnieje. Czy Polska będzie prowadziła masową akcję kontroli internetu?, 15 VI 2013, http://wpolityce.pl/wydarzenia/55901-ujawniamy-narodowe-centrum-kryptolo….

[19]Zob. Cios w program atomowy Iranu. Zamach na naukowca, 11 I 2012,http://www.tvn24.pl/wiadomosci-ze-swiata,2/cios-w-program-atomowy-iranu-….

[20]J. Manyika, M. Chui, B. Brown, J. Bughin, R. Dobbs, Ch. Roxburgh, A. Hung Byers, Big data: The next frontier for innovation, competition, and productivity, VI 2011, s. 24,http://www.mckinsey.com/~/media/McKinsey/dotcom/Insights%20and%20pubs/MG…

[21]Zob. Ch. Caryl, Secret Police State, 14 VI 2013,http://www.foreignpolicy.com/articles/2013/06/13/secret_police_state.

[22]K. Cukier, V. Mayer-Schoenberger, The Rise of Big Data, „Foreign Affairs” vol. 92, 2013, Issue 3, s. 27.

[23]J. Gantz, D. Reinsel, Extracting Value from Chaos,http://www.emc.com/collateral/analyst-reports/idc-extracting-value-from-….

[24]Zdziwicie się, ile dzieje się w Internecie w ciągu zaledwie minuty,http://www.chip.pl/news/wydarzenia/trendy/2012/05/zdziwicie-sie-ile-dzie….

[26]Zob. E. Brynjolfsson, Big Data, czyli przełom w zarządzaniu firmą, „Harvard Business Review Polska” 2013, nr 122, s. 44-51.

[27]Zob. K. Cukier, V. Mayer-Schoenberger, The Rise of Big Data.

[28]Bardzo dobrze możliwości korzystania z wielkich zbiorów danych w medycynie i pracy policji ukazuje jeden z odcinków serii dokumentalnej zrealizowanej przez telewizję BBC. Zob.Horizon – Age of Big Data.BBC.2013.Data Mining, https://www.youtube.com/watch?v=EsVy28pDsYo.

[29]Innymi słowy, to, co dawniej oznaczało rozumienie przeszłości może oznaczaćprzewidywanie przyszłości. Na temat prognozowania w naukach społecznych, a w szczególności w stosunkach międzynarodowych zob. B. Sajduk, Czy w nauce o stosunkach międzynarodowych możliwe jest efektywne prognozowanie?, 26 V 2013,http://www.omp.org.pl/artykul.php?artykul=274.

[30]W naukach politycznych przykładami oparcia badań o analizę baz danych może być aktywność naukowo-publicystyczna Jarosława Flisa oraz Rafała Matyi, który treść swojej najnowszej książki oparł właśnie na pomyśle gromadzeniu dużej ilości informacji i przekładania ich na bazy danych. Dzięki temu zabiegowi uzyskał możliwość generowania kwerend będących podstawą dalszych badań. Zob. R. Matyja, Rywalizacja polityczna w Polsce, Kraków 2013.

[32]J. Bamford, The NSA Is Building the Country’s Biggest Spy Center (Watch What You Say),http://www.wired.com/threatlevel/2012/03/ff_nsadatacenter/all/.

[33]Swoją drogą interesujący jest fakt, że to za kadencji demokratycznego prezydenta wyraźnie wzrosła ilość ataków za pomocą samolotów bezzałogowych oraz skala elektronicznej inwigilacji.

[34]J. Bamford, The NSA Is Building...

[35]Ibidem. Innymi słowy, włamanie się metodą prób i błędów do sieci bezprzewodowej zabezpieczonej szyfrowaniem WEP w wariancie z 128-bitowym kluczem, mając możliwość sprawdzania 3500 wariantów kluczy na sekundę, trwałoby statystycznie do 18×1019 lat. Czas ten można skrócić do 20 minut, dysponując odpowiednio dużą ilość danych przesyłanych przez tak zabezpieczoną sieć. Zob. Zabezpieczanie sieci bezprzewodowych,http://www.pcworld.pl/artykuly/45525/Zabezpieczanie.sieci.bezprzewodowyc….

[38]http://www.gpo.gov/fdsys/pkg/STATUTE-92/pdf/STATUTE-92-Pg1783.pdf

[39]Np. zamach z 11 września 2001 roku, który dotknął Nowy York oraz Pensylwanię, najprawdopodobniej był zaplanowany w Niemczech przez terrorystów pochodzących z Arabii Saudyjskiej i innych krajów arabskich, aodpowiedzialność za całe zdarzenie wziął na siebie przebywający wówczas w Afganistanie przywódca al-Kaidy, transnarodowej organizacji terrorystycznej.

[40]C. Cain Miller, Tech Companies Concede to Surveillance Program, „The New York Times” 2013, 7 VI, http://www.nytimes.com/2013/06/08/technology/tech-companies-bristling-co….

[41]Tu jednak należy podkreślić opinie mówiące, że dysponując samymi tylko metadanymi, z łatwością można zidentyfikować konkretną osobą. Co więcej, dzięki technologii szybkiego nakładania informacji z różnych źródeł (ang. Rapid Information Overlay Technology, RIOT), wykorzystując dane zagregowane w Internecie, m.in. w mediach społecznościowych, można odtworzyć rutynę życiową danej osoby, tym samym przewidzieć jej zachowania w przyszłości. Zob. R. Gallagher, Software that tracks people on social media created by defence firm, „The Guardian” 2013, 10 II, http://www.guardian.co.uk/world/2013/feb/10/software-tracks-social-media….

[42]Q. Hardy, Why Big Data Is Not Truth, „The New York Times” 2013, 1 VI,http://bits.blogs.nytimes.com/2013/06/01/why-big-data-is-not-truth/.

[43]Współpraca wywiadowcza w ramach porozumienia UK-USA (zwanego również Five Eyes, pol. „pięcioro oczu”) pomiędzy służbami specjalnymi odbywa się między Kanadą, Australią, Nową Zelandią oraz Wielką Brytanią i Stanami Zjednoczonymi. Zob.http://www.nsa.gov/public_info/press_room/2010/ukusa.shtml.

[44]J. Reed,  The Brits Are Spying On Us – They've Got "More Access" Than NSA, 21 VI 2013,http://killerapps.foreignpolicy.com/posts/2013/06/21/the_british_are_spy….

[45]Transcript: testimony of NSA Director Gen. Keith Alexander before the House Intelligence Committee on June 18, 2013,http://www.whatthefolly.com/2013/06/19/transcript-testimony-of-nsa-direc… Statement to the NSA/CSS workforce
25 June 2013
,
http://www.nsa.gov/public_info/speeches_testimonies/25jun13_dir.shtml.

[46]Zob. M. Magierowski, Afera podsłuchowa i wybory do Bundestagu,http://www.nowapolitologia.pl/politologia/systemy-polityczne/afera-podsl….

[47]S. Leutheusser-Schnarrenberger, Security is not an end in itself, „Spiegel on-line” 2013, 6 VI, http://www.spiegel.de/international/world/minister-leutheusser-schnarren….

[48]Zob. J. M. Berger, Evil in a Haystack, 17 VI 2013,http://www.foreignpolicy.com/articles/2013/06/17/evil_in_a_haystack_nsa_….

[49]W tym miejscu warto zauważyć, iż w Internecie poczucie anonimowości może zostać bardzo mocno ograniczone, stąd dziwić mogą pomysły pojawiające się w polskiej polityce, aby np. wybierać szefa partii drogą elektroniczną, która nie uniemożliwia łatwej identyfikacji głosującego.

[50]T. L. Friedman, Blowing a Whistle, „The New York Times” 2013, 11 VI,http://www.nytimes.com/2013/06/12/opinion/friedman-blowing-a-whistle.htm….

[51]Ch. Freeland, In Big Data, Potential for Big Division, „New York Times” 2012, 12 I,http://www.nytimes.com/2012/01/13/us/13iht-letter13.html?_r=0&pagewanted….

 

Źródło: Nowa Politologia

 

Komentarze

komentarze

Powrót na górę