Jakie to uczucie zhakować Adobe, Yahoo czy Microsoft?
Gdy pracuje się w branży związanej z bezpieczeństwem i zajmuje się nie tylko włamywaniem, ale również zapewnianiem bezpieczeństwa systemów korporacji, to jest to na pewno satysfakcjonujące, że dwójka inżynierów z Polski była w stanie zhakować systemy firm dysponujących wielomilionowym budżetem na cyberbezpieczeństwo. Nie zrobiłam tego sama. To efekt pracy zespołowej. Razem z Dawidem Moczadłą rozpoczęliśmy projekt badawczy, który polegał na sprawdzaniu bezpieczeństwa i etycznym hakowaniu.
Duże firmy technologiczne zapraszają badaczy bezpieczeństwa do przeprowadzenia testów bezpieczeństwa w programach typu bug bounty. Ścigamy się z osobami, które chronią systemy i robią wszystko, żeby nikt się do nich nie włamał, a naszym zadaniem jest znalezienie luk, które potem pomagamy zabezpieczać. Chodzi więc o to, żeby zabezpieczyć te firmy przed osobami, które mają złe intencje.
Dla której firmy taki test był największym wyzwaniem?
Niestety nie mogę wymienić nazwy konkretnej firmy. Mogę powiedzieć tylko tyle, że była to jedna z największych firm telekomunikacyjnych w Stanach. Luka w bezpieczeństwie pozwalała na przejęcie dostępu do bardzo dużej ilości danych użytkowników. Dostaliśmy informacje, że została bardzo szybko załatana, natomiast to, że człowiek jest w stanie w kilka chwil dostać się do takich zasobów, to bardzo satysfakcjonujące uczucie.
I dało ci do myślenia.
Jeśli firmy, wydające miliony dol. na cyberbezpieczeństwo, nie są w stanie zabezpieczyć swoich systemów, oznacza to, że mamy dość duży problem. Jako etyczni hakerzy, czyli osoby zajmujące się badaniem bezpieczeństwa różnych systemów, postanowiliśmy się temu przyjrzeć. Okazało się, że w wielu przypadkach problemem są przestarzałe narzędzia, które zawodzą w dużej skali, inną kwestią jest również rozwój sztucznej inteligencji.
Z AI zaczynają korzystać programiści, a niestety sztuczna inteligencja trenowana na wytworach człowieka, czyli na tekstach i kodzie napisanym przez ludzi, zawiera luki bezpieczeństwa. Jeśli więc używamy sztucznej inteligencji do generowania kodu, bardzo często wprowadzamy te podatności do systemów. Mało tego, robimy to znacznie szybciej i w dużo większej skali niż działo się to wcześniej. Każdy, kto używał sztucznej inteligencji, choćby czata GPT, wie, że to narzędzie może wyprodukować bardzo dużo bezsensownego tekstu. Z kodem dzieje się bardzo podobnie.