Chat GPT – jakie zagrożenia niesie za sobą rozwój sztucznej inteligencji w 2024 roku?

6 czerwca 2024

W 2023 i na początku 2024 roku nie było wątpliwości co do znaczenia rosnącej dostępności sztucznej inteligencji i aplikacji wykorzystujących nowe technologie. Ewolucja na przestrzeni ostatnich miesięcy okazała się bardziej nieprzewidywalna niż oczekiwano, a ChatGPT natychmiast przeszedł do głównego nurtu. Przełomowa aplikacja zyskała ogromną popularność, trafiając na pierwsze strony magazynów technologicznych. Przeniknęła do tak wielu branż, że Cisco przewiduje, że ChatGPT i podobne narzędzia będą działać w zapleczu systemów IT i produktów zewnętrznych. Rok od publicznej premiery produktu byliśmy świadkami większych inwestycji konkurentów z podobnymi produktami, walki o władzę w spółkach macierzystych i ich głównych inwestorach oraz zagrożeń cyberbezpieczeństwa, których skala i wpływ będą rosły.

Biorąc pod uwagę luki w zabezpieczeniach i możliwość wzmocnienia pozycji hakerów, cyberbezpieczeństwo musi pozostać priorytetem, aby zapewnić bezpieczny rozwój AI w mainstreamie.

Zagrożenia związane ze sztuczną inteligencją

Konsekwencje rozpowszechnienia ChatGPT zaowocowały kilkoma wyzwaniami, które nie tylko nie zostały w pełni rozwiązane, ale zostały zaostrzone przez nieuczciwe działania i metody manipulowania modelem uczenia się języków. Wyzwania te obejmują: 

  • Generowanie złośliwego kodu – nakłanianie sztucznej inteligencji do tworzenia kodu na potrzeby phishingu, dystrybucji złośliwego oprogramowania i innych metod cyberprzestępczości. 
  • Oszustwa phishingowe wyższej jakości – raport State of Phishing Report 2023 opracowany przez SlashNext ujawnił wzrost liczby wiadomości phishingowych o 1265% od 4. kwartału 2022 roku. Z 967% wzrostem phishingu danych uwierzytelniających. 
  • Kampanie dezinformacyjne – AI może być wykorzystywana do manipulowania opinią publiczną i szerzenia propagandy z większym zasięgiem i częstotliwością niż wiarygodne źródła. 
  • Inżynieria społeczna – może być stosowana do bardzo realistycznego podszywania się pod prawdziwe osoby. Wybranych ludzi można przekonać do podania poufnych informacji. 
  • Prywatność danych – istnieją duże obawy co do legalności wszystkich danych wykorzystywanych do trenowania ChatGPT. Istnieje większe ryzyko wycieku lub niewłaściwego wykorzystania informacji. 
  • Brak przejrzystości/wyjaśnień – brak możliwości pokazania użytkownikowi, w jaki sposób ChatGPT i inne aplikacje dochodzą do swoich wniosków. Zwiększa to trudność w wykrywaniu i łagodzeniu potencjalnego braku obiektywizmu i zagrożeń bezpieczeństwa.

W oficjalnej prognozie cyberbezpieczeństwa Google Cloud na rok 2024 zauważono, że „jeśli atakujący ma dostęp do nazwisk, organizacji, stanowisk, działów, a nawet danych zdrowotnych, może teraz kierować do dużej grupy osób bardzo osobiste, przekonujące wiadomości e-mail, ponieważ nie ma nic złośliwego w tym, że na przykład używa się sztucznej inteligencji do przygotowania przypomnienia o fakturze…”. Widzieliśmy już, że atakujący odnieśli sukces dzięki innym ofertom underground-as-a-service, w tym oprogramowaniu ransomware wykorzystywanemu w operacjach cyberprzestępczych. 

Dostrzegając potrzebę przerwania aktywności podmiotów stanowiących zagrożenie, OpenAI zlikwidowała konta obsługiwane przez złośliwe podmioty powiązane z państwami. Działania podejmowane przez atakujących obejmują prowadzenie badań nad firmami, generowanie skryptów, tworzenie treści wykorzystywanych do phishingu i form inżynierii społecznej. Nie tylko można tworzyć treści, które są dokładne i wiarygodne, ale podmioty te mogą pójść dalej, wykorzystując LLM do badania firm i tworzenia bardziej ukierunkowanych metod inżynierii społecznej.

chat gpt zagrożenia

Aktualne działania podejmowane w zakresie cyberbezpieczeństwa AI 

W odpowiedzi na zwiększone ryzyko i zwiększone wykorzystanie AI przez przestępców, plan znalezienia potencjalnych rozwiązań dla tych wyzwań będzie wymagał postępów w następujących obszarach: 

  • Lepsze wykrywanie i łagodzenie skutków ataków
  • Większa przejrzystość i odpowiedzialność
  • Wytyczne i regulacje od rządów światowych
  • Edukacja społeczeństwa na temat potencjalnych zagrożeń i ochrony przed modelami sztucznej inteligencji.

Obrońcy i specjaliści ds. cyberbezpieczeństwa w 2024 roku będą musieli wykrywać i reagować na przeciwników online na dużą skalę i o wiele szybciej. Nowe technologie sztucznej inteligencji pomogą rozszerzyć i wzmocnić ludzką zdolność do analizowania i wyciągania bardziej precyzyjnych wniosków w przypadku cyberataku. Ponieważ wybory prezydenckie w Stanach Zjednoczonych odbędą się w 2024 r., ochrona przed złośliwym oprogramowaniem i dezinformacją ma coraz większy priorytet, zwłaszcza w obliczu rosnącego zagrożenia ze strony podmiotów państwowych. 


Obecnie Microsoft Threat Intelligence śledzi ponad 300 unikalnych podmiotów zagrażających, w tym podmioty państwowe, grupy ransomware i inne wykorzystujące modele uczenia się języka (LLM) stosowane do atakowania infrastruktury cyfrowej. Aby przeciwdziałać tym taktykom, technikom i procedurom, Microsoft wyposaża technologie w celu ciągłego śledzenia złośliwych LLM i tworzenia środków zaradczych dla następujących działań i nie tylko.

  • Rozpoznanie oparte na LLM
  • Techniki skryptowe wspomagane przez LLM 
  • Rozwój wspomagany przez LLM
  • Inżynieria społeczna wspierana przez LLM
  • Badanie luk w zabezpieczeniach wspomagane przez LLM
  • Tworzenie oprogramowania zoptymalizowanego pod kątem LLM
  • Unikanie wykrywania anomalii za pomocą LLM
  • Obejście funkcji bezpieczeństwa kierowane przez LLM
  • Rozwój zasobów wspomagany przez LLM

W odpowiedzi na prognozowany wzrost zagrożeń i podmiotów wykorzystujących technologię sztucznej inteligencji, Biały Dom zajął się ryzykiem i niebezpieczeństwami związanymi ze sztuczną inteligencją, spotykając się z siedmioma wiodącymi firmami, w tym Amazon, Anthropic, Google, Inflection, Meta, Microsoft i OpenAI, aby wspólnie zobowiązać się do stosowania najlepszych praktyk dla swoich produktów w celu zapewnienia bezpieczeństwa od etapu koncepcyjnego do ostatecznego wprowadzenia produktu na rynek. Obejmuje to wewnętrzne i zewnętrzne testy bezpieczeństwa przed wydaniem, a firmy dzielą się informacjami z całą branżą, aby jak najlepiej przeszkolić specjalistów z sektora publicznego i prywatnego w zakresie wymaganego poziomu wiedzy. Firmy muszą również dołożyć wszelkich starań i przeprowadzić badania, aby zapewnić bezpieczeństwo konsumentom.

Zapotrzebowanie na wyszkolonych cyberspecjalistów i nowe rozwiązania

Deep fake, kampanie dezinformacyjne i inne formy manipulacji będą dalej wdrażane nie tylko ze względu na dostępność i możliwości wspomnianego oprogramowania, ale także ze względu na lukę w umiejętnościach w zakresie cyberbezpieczeństwa. W HackerU naszą misją jest szkolenie i przygotowywanie pracowników do stawienia czoła rosnącemu zagrożeniu cyberatakami ze strony złośliwych podmiotów. Rok 2024 będzie pracowitym rokiem dla cyberbezpieczników, ale także takim, który jest w stanie rozwiązać niezliczone wyzwania dzięki wspólnym wysiłkom. Sprawdź więcej szczegółów o kursach HackerU na naszej stronie.