NSA i GCHQ złamały większość szyfrów
Informacje zdobyte przez dziennikarzy The New York Timesa, Guardiana oraz niedochodowej organizacji ProPublica wskazują, że amerykańska NSA we współpracy z brytyjską agencją wywiadowczą GCHQ złamały większość algorytmów szyfrowania używanych przez przedsiębiorców i użytkowników internetu. W ciągu ostatnich 13 lat NSA zainwestowała miliardy dolarów w technologie, które pozwalają jej poznać niemal wszystkie sekrety obywateli.
Z raportów opublikowanych przez wspomniane gazety dowiadujemy się, że NSA zakupiła potężne superkomputery oraz podpisało umowy z wieloma firmami, które umieściły w swoim oprogramowaniu tylne drzwi pozwalające na szpiegowanie użytkowników. W raportach nie wymieniono nazw firm współpracujących z NSA.
Najnowsze dokumenty ujawnione przez Edwarda Snowdena i omówione w raportach opisują wysiłki NSA skoncentrowane na próbach złamania protokołu SSL. Inny dokument wspomina o tym, że GCHQ przez wiele lat próbowała podsłuchiwać ruch z Google'a, Yahoo!, Microsoftu i Facebooka. Brytyjczycy chwalili się w 2012 roku, że uzyskali "nowe możliwości dostępu" do serwerów Google'a. Nie wiadomo jednak, na czym polega działanie GCHQ, ani jakie dane jest w stanie przechwytywać.
Komentarze (15)
wilk, 6 września 2013, 17:36
To nie do końca prawda. Algorytmy nie zostały osłabione (choć zdarzały się przypadki grzebania NSA w magic numbers i PRNG), są publiczne i powszechnie studiowane. Problemem są firmy je implementujące, które mają siedziby w USA i na których wymusza się albo nieprawidłową implementację, albo umieszczanie tylnych furtek. Dzięki temu nie trzeba łamać czegoś, co można obejść. Superkomputery są faktem, ale dalej leci to po wybranych hasłach. Z drugiej strony dostęp do CA nie wróży nic dobrego.
Grzegorz Kraszewski, 7 września 2013, 11:43
Wilk ma rację, tytuł tej wiadomości jest mylący. Złamanie dobrego szyfru z prawidłowo wygenerowanymi kluczami nie stało się łatwiejsze. Chyba że... NSA i GCHQ zrobiły postępy w dziedzinie komputerów kwantowych. Gdyby im się udało zbudować komputer kwantowy rozwiązujący zagadnienie faktoryzacji dużych liczb pierwszych, kryptografia z kluczem publicznym stanęłaby przed nimi otworem.
adi, 7 września 2013, 20:36
" Chyba że... NSA i GCHQ zrobiły postępy w dziedzinie komputerów kwantowych. "
Komputery kwantowe to nie jedyne rozwiazanie na skuteczone łamanie szyfrow opartych na RSA. Jeśli chodzi o faktoryzacje liczb pierwszych podejrzewam ze zdecydowanie predzej osiagniemy postep w matematyce. I kto wie czy NSA nie ma juz wiedzy na ten temat.
Wielu matematykow juz mowi ze do takiego momentu się zblizamy kiedy opracuja szybka metode faktoryzacji i asymptotyczne tempo wzrostu juz nie bedzie wykladnicze tylko wielomianowe. Przy takiej zlozonosci nikt powazny nie bedzie chcial stosowac tego typu metod. http://eprint.iacr.org/2013/095.pdf A przy dzisiejszym rozwoju teorii liczb to moze sie stac nagle.
Przemek Kobel, 7 września 2013, 21:21
Kiedyś czytałem, że faktoryzacja jest problemem bardzo podobnym do... gry w sapera. Kiedyś, kiedyś było w Polsce poszukiwanie słowa za milion (zęzęś) - znowu ten sam sposób szukania rozwiązań i 20-bitowy klucz komuś udało się rozbić na 5 składowych na kartce papieru. Może po prostu zatrudnili stado maniaków od łamigłówek, którzy wspomagani komputerem znajdują te klucze (komputer przydałby się np. do sprzątania powstających w czasie tej zabawy drzewek możliwych cyfr). Albo opracowali algorytm, który naśladuje ludzkie kombinowanie.
Tolo, 8 września 2013, 10:50
Nie ma pewności ze same algorytmy są bezpieczne (ujmując to dość szeroko) z różnych powodów.
Po pierwsze NAS nie raz i nie dwa maczała palce w różnych algorytmach.
Na przykład NSA udostępnia tez gotowe polityki bezpieczeństwa dla Windows
Po drugie nie wiadomo jakie są rzeczywiste możliwości obliczeniowe NSA klucz uważany za bezpieczny w warunkach normalnych dla nsa może być do złamania w rozsądnym czasie. I tu do szczęścia może wystarczyć różnica kilku bitów. Przypominam ze nie kdo konca wiadomo na ile nsa jest do przodu w stosunku do nauki oficjalnej i nie jest to sprawa kosmicznych technologi etc oni muszą utrzymywać zawsze jakąś techniczną technologiczna czy inną wyższość to jest konieczne.
Pisałem już tym ale kiedy intel opracowywał procesor 4004 w f14 był już 24 bitowy wielopotokowy. Kryptografia asymetryczna tez powstała za zamkniętymi drzwiami i jeszcze wielu wynalazcom zostanie odebrana plama pierwszeństwa jak różne rzeczy beda odtajniane.
Grzegorz Kraszewski
A skąd wiesz ze szyfry są dobre? Dla czego zakładasz ze generatory liczb losowych akurat nie są felerne przecież to i tak z definicji ciągi pseudolosowe te wszystkie generatory są okresowe!!
Arlic, 8 września 2013, 11:35
Dużo łatwiej zbudować procesor pod konkretne zastosowanie niż dla ludu. Nie trzeba trzymać się standardów wykorzystywanych na rynku, i cena nie jest tak dużym ograniczeniem. Nadal jest ten podział i nie jest to nic nowego. A komputery w arch. superskalarnej były wiele lat przed intel 4004 stosowane.
Po intelu dość długi czas nie była stosowana arch. superskalarna z wielu powodów, chociaż by fakt że aż do teraz stosowany jest sposób wykonywania instrukcji CISC, którego bezpośrednio nie można rozdzielić na parę równolegle wykonujących się operacji.
Przemek Kobel, 10 września 2013, 13:48
To w sumie ciekawe, bo ciągle nie trafiło do 'annałów' (ehm. Wikipedii). Słyszałem jeno pogłoski, że pod koniec lat 60 w myśliwcach latały już mikroprocesory Motoroli, które wyprzedzały 4004 o kilka generacji. Podobno nie da się ich prosto porównać, bo ich budowa nigdy nie została w pełni "powtórzona", w przemyśle cywilnym.
Mały zgryz: Intel 4004 to rok 71, a Tomcat to 72 - pytanie jak w czasach opracowywania 4004 mógł latać samolot, który był gotowy dopiero po wyprodukowaniu 4004? Od razu w prototypie był ten 24-bitowy?
Od strony programisty chyba tylko procesory x86 są jeszcze CISC-ami, ale w środku to już jest architektura RISC (zaczęło się jeszcze w czasach układów Cyrix).
wilk, 10 września 2013, 14:21
No jak nie?
https://en.wikipedia...flight_controls
https://en.wikipedia.org/wiki/MP944
Przemek Kobel, 10 września 2013, 16:13
Okej, doczytałem. Nie bez powodu piszą o tym 'chip set'. Przetworniki 20-bitowe, dane 20-bitowe, instrukcje zależnie od kości między 4 a 20 bitów. Zrobili pierwszy mikrokontroler, co ciekawe o wiele bardziej zaawansowany niż późniejsze mikrokontrolery. Wolałbym komputery z takim protoplastą niż z kalkulatorem.
Tolo, 10 września 2013, 20:25
O pokićkało mi sie z bitowością.
Natomiast tutaj nie chodzi o porównywanie bo 4004 to był procesor do kalkulatora. Chodzi o to ze w czasie gdy komercyjni producenci próbowali wystrugać koło z drzewa które okazało się być krokiem milowym już to rok wcześniej spece niejawni budowali rowery na alumach.
To pokazuje potencjalną przepaść która dzieli to co myślimy ze ma nsa od tego co ma w rzeczywistości.
Jak by nie koncepcja 4004 to nikt nie przewidział by komputerów domowych bo koncepcja procesora była tu kluczowa (chodzi o ujęcie troszku filozoficzne;) ) starczy ze w kilku miejscach nsa jest o krok do przodu i juz potrafią więcej niz większośc z nas jest sobie w stanie wyobrazić bo brakuje nam szczebelka drabiny w rozumowaniu którego nie przeskoczymy.70 ty rok był ponad 40 lat temu. Potem było jeszcze 20 lat zimniej wojny. Rozwój w sferze cywilnej nawet niezależny od militarnej dla tej drugiej tez stanowi punkt wyjścia
wilk, 10 września 2013, 23:04
Dlatego warto zwracać uwagę na to co publicznie rekomenduje NSA jako „bezpieczne”. ;-)
Przemek Kobel, 11 września 2013, 09:02
Ja myślę, że nie tyle chodzi o szukanie jakichś magicznych tajnych technologii, tylko wyobrażenie sobie co jeszcze by można zrobić na bazie tego co już znamy i sprawdzenie symptomów czy któraś z tych rzeczy nie jest aby wykorzystywana. Wot i zajęcie dla analityków wywiadu - sprawdzić czy komuś udało się napisać program samodzielnie grający w sapera. Powodzenia.
Na przykład w tym procesorze nawigacyjnym F-14 była wbudowana obsługa kodu Graya. Nie czytałem historii MP944, ale ponieważ chipset był projektowany przez ludzi od mainframe'ów, myślę że część kości zaczęła swój żywot jako jakieś narzędzie pomagające w projektowaniu dużych obwodów logicznych. Bo między innymi tam ten kod jest używany (do optymalizacji tabelek prawdy, jak ktoś już musi wiedzieć). Też mogło to być tajne, bo superkomputery to sprzęt wojskowy. Potem ktoś pomyślał, co by jeszcze można no i powstał mały mainframe do samolotu.
W tym samym czasie po "naszej" stronie komputer w myśliwcu to było bodaj jakieś monstrum ważące tonę, ALE nawet tu kombinowali, bo te komputery potrafiły się sieciować i wykorzystywano to w walce.
Poza tym wiele technologii zostało zapomnianych (kiedyś wyszły z użycia, bo zmieniła się technologia, a po kilku nawrotach ewolucji znowu stają się przydatne). Nie bez powodu emerytowani pracownicy IBM-a powtarzają, że teraz MS boryka się z problemami, które oni rozwiązali w latach 60. Być może nie wszyscy zapomnieli, a tajniacy nie wymagają od swoich pracowników częstych publikacji w prestiżowych żurnalach.
Grzegorz Kraszewski, 11 września 2013, 09:35
Nieprawda. Dobry generator liczb losowych czerpie entropię ze źródeł zewnętrznych, takich jak np. czasy między wciśnięciami klawiszy, ruchy myszką, statystyki interfejsów sieciowych. Zaawansowane generatory czerpią entropię z takich źródeł jak np. naturalne szumy złącza p-n, albo szum tła radiowego. Takie generatory nie są okresowe i przewidzenie generowanej sekwencji nie jest możliwe.
Arlic, 11 września 2013, 20:02
Teraz, ale nie w latach 70.
Przemek Kobel, 12 września 2013, 14:40
Zgadza się, sam wzak pisałeś, że teraz.