Chat GPT – jakie zagrożenia niesie za sobą rozwój sztucznej inteligencji w 2024 roku?
W 2023 i na początku 2024 roku nie było wątpliwości co do znaczenia rosnącej dostępności sztucznej inteligencji i aplikacji wykorzystujących nowe technologie. Ewolucja na przestrzeni ostatnich miesięcy okazała się bardziej nieprzewidywalna niż oczekiwano, a ChatGPT natychmiast przeszedł do głównego nurtu. Przełomowa aplikacja zyskała ogromną popularność, trafiając na pierwsze strony magazynów technologicznych. Przeniknęła do tak wielu branż, że Cisco przewiduje, że ChatGPT i podobne narzędzia będą działać w zapleczu systemów IT i produktów zewnętrznych. Rok od publicznej premiery produktu byliśmy świadkami większych inwestycji konkurentów z podobnymi produktami, walki o władzę w spółkach macierzystych i ich głównych inwestorach oraz zagrożeń cyberbezpieczeństwa, których skala i wpływ będą rosły.
Biorąc pod uwagę luki w zabezpieczeniach i możliwość wzmocnienia pozycji hakerów, cyberbezpieczeństwo musi pozostać priorytetem, aby zapewnić bezpieczny rozwój AI w mainstreamie.
Zagrożenia związane ze sztuczną inteligencją
Konsekwencje rozpowszechnienia ChatGPT zaowocowały kilkoma wyzwaniami, które nie tylko nie zostały w pełni rozwiązane, ale zostały zaostrzone przez nieuczciwe działania i metody manipulowania modelem uczenia się języków. Wyzwania te obejmują:
- Generowanie złośliwego kodu – nakłanianie sztucznej inteligencji do tworzenia kodu na potrzeby phishingu, dystrybucji złośliwego oprogramowania i innych metod cyberprzestępczości.
- Oszustwa phishingowe wyższej jakości – raport State of Phishing Report 2023 opracowany przez SlashNext ujawnił wzrost liczby wiadomości phishingowych o 1265% od 4. kwartału 2022 roku. Z 967% wzrostem phishingu danych uwierzytelniających.
- Kampanie dezinformacyjne – AI może być wykorzystywana do manipulowania opinią publiczną i szerzenia propagandy z większym zasięgiem i częstotliwością niż wiarygodne źródła.
- Inżynieria społeczna – może być stosowana do bardzo realistycznego podszywania się pod prawdziwe osoby. Wybranych ludzi można przekonać do podania poufnych informacji.
- Prywatność danych – istnieją duże obawy co do legalności wszystkich danych wykorzystywanych do trenowania ChatGPT. Istnieje większe ryzyko wycieku lub niewłaściwego wykorzystania informacji.
- Brak przejrzystości/wyjaśnień – brak możliwości pokazania użytkownikowi, w jaki sposób ChatGPT i inne aplikacje dochodzą do swoich wniosków. Zwiększa to trudność w wykrywaniu i łagodzeniu potencjalnego braku obiektywizmu i zagrożeń bezpieczeństwa.
W oficjalnej prognozie cyberbezpieczeństwa Google Cloud na rok 2024 zauważono, że „jeśli atakujący ma dostęp do nazwisk, organizacji, stanowisk, działów, a nawet danych zdrowotnych, może teraz kierować do dużej grupy osób bardzo osobiste, przekonujące wiadomości e-mail, ponieważ nie ma nic złośliwego w tym, że na przykład używa się sztucznej inteligencji do przygotowania przypomnienia o fakturze…”. Widzieliśmy już, że atakujący odnieśli sukces dzięki innym ofertom underground-as-a-service, w tym oprogramowaniu ransomware wykorzystywanemu w operacjach cyberprzestępczych.
Dostrzegając potrzebę przerwania aktywności podmiotów stanowiących zagrożenie, OpenAI zlikwidowała konta obsługiwane przez złośliwe podmioty powiązane z państwami. Działania podejmowane przez atakujących obejmują prowadzenie badań nad firmami, generowanie skryptów, tworzenie treści wykorzystywanych do phishingu i form inżynierii społecznej. Nie tylko można tworzyć treści, które są dokładne i wiarygodne, ale podmioty te mogą pójść dalej, wykorzystując LLM do badania firm i tworzenia bardziej ukierunkowanych metod inżynierii społecznej.
Aktualne działania podejmowane w zakresie cyberbezpieczeństwa AI
W odpowiedzi na zwiększone ryzyko i zwiększone wykorzystanie AI przez przestępców, plan znalezienia potencjalnych rozwiązań dla tych wyzwań będzie wymagał postępów w następujących obszarach:
- Lepsze wykrywanie i łagodzenie skutków ataków
- Większa przejrzystość i odpowiedzialność
- Wytyczne i regulacje od rządów światowych
- Edukacja społeczeństwa na temat potencjalnych zagrożeń i ochrony przed modelami sztucznej inteligencji.
Obrońcy i specjaliści ds. cyberbezpieczeństwa w 2024 roku będą musieli wykrywać i reagować na przeciwników online na dużą skalę i o wiele szybciej. Nowe technologie sztucznej inteligencji pomogą rozszerzyć i wzmocnić ludzką zdolność do analizowania i wyciągania bardziej precyzyjnych wniosków w przypadku cyberataku. Ponieważ wybory prezydenckie w Stanach Zjednoczonych odbędą się w 2024 r., ochrona przed złośliwym oprogramowaniem i dezinformacją ma coraz większy priorytet, zwłaszcza w obliczu rosnącego zagrożenia ze strony podmiotów państwowych.
Obecnie Microsoft Threat Intelligence śledzi ponad 300 unikalnych podmiotów zagrażających, w tym podmioty państwowe, grupy ransomware i inne wykorzystujące modele uczenia się języka (LLM) stosowane do atakowania infrastruktury cyfrowej. Aby przeciwdziałać tym taktykom, technikom i procedurom, Microsoft wyposaża technologie w celu ciągłego śledzenia złośliwych LLM i tworzenia środków zaradczych dla następujących działań i nie tylko.
- Rozpoznanie oparte na LLM
- Techniki skryptowe wspomagane przez LLM
- Rozwój wspomagany przez LLM
- Inżynieria społeczna wspierana przez LLM
- Badanie luk w zabezpieczeniach wspomagane przez LLM
- Tworzenie oprogramowania zoptymalizowanego pod kątem LLM
- Unikanie wykrywania anomalii za pomocą LLM
- Obejście funkcji bezpieczeństwa kierowane przez LLM
- Rozwój zasobów wspomagany przez LLM
W odpowiedzi na prognozowany wzrost zagrożeń i podmiotów wykorzystujących technologię sztucznej inteligencji, Biały Dom zajął się ryzykiem i niebezpieczeństwami związanymi ze sztuczną inteligencją, spotykając się z siedmioma wiodącymi firmami, w tym Amazon, Anthropic, Google, Inflection, Meta, Microsoft i OpenAI, aby wspólnie zobowiązać się do stosowania najlepszych praktyk dla swoich produktów w celu zapewnienia bezpieczeństwa od etapu koncepcyjnego do ostatecznego wprowadzenia produktu na rynek. Obejmuje to wewnętrzne i zewnętrzne testy bezpieczeństwa przed wydaniem, a firmy dzielą się informacjami z całą branżą, aby jak najlepiej przeszkolić specjalistów z sektora publicznego i prywatnego w zakresie wymaganego poziomu wiedzy. Firmy muszą również dołożyć wszelkich starań i przeprowadzić badania, aby zapewnić bezpieczeństwo konsumentom.
Zapotrzebowanie na wyszkolonych cyberspecjalistów i nowe rozwiązania
Deep fake, kampanie dezinformacyjne i inne formy manipulacji będą dalej wdrażane nie tylko ze względu na dostępność i możliwości wspomnianego oprogramowania, ale także ze względu na lukę w umiejętnościach w zakresie cyberbezpieczeństwa. W HackerU naszą misją jest szkolenie i przygotowywanie pracowników do stawienia czoła rosnącemu zagrożeniu cyberatakami ze strony złośliwych podmiotów. Rok 2024 będzie pracowitym rokiem dla cyberbezpieczników, ale także takim, który jest w stanie rozwiązać niezliczone wyzwania dzięki wspólnym wysiłkom. Sprawdź więcej szczegółów o kursach HackerU na naszej stronie.