Cyberprzestępcy coraz częściej korzystają ze sztucznej inteligencji_kto wygra tę walkę_analiza Netskop

Warszawa 22 lutego 2023 r. Wraz z rozwojem sztucznej inteligencji (AI), na LinkedIn i w mediach internetowych rozgorzała dyskusja na temat korzyści, jakie może ona przynieść zarówno podmiotom odpowiedzialnym za zagrożenia  jak i zespołom odpowiedzialnym za bezpieczeństwo. Choć AI może być potężnym narzędziem dla cyberprzestępców, pozwalając im na automatyzację ataków i skuteczniejsze unikanie wykrycia, może być również potężnym narzędziem dla specjalistów ds. bezpieczeństwa, pozwalając im na szybsze i skuteczniejsze wykrywanie i reagowanie na zagrożenia. Kto wygra ten pojedynek? Jak sztuczna inteligencja jest wykorzystywana przez cyberprzestępców a jak przez specjalistów od zabezpieczeń i bezpieczeństwa?- analizuje Steve Foster z Netskope, Senior Solutions Engineer.

Te polaryzujące prognozy skłaniają do zastanowienia się czy wpływ AI na bezpieczeństwo cybernetyczne może się w końcu zrównoważyć? Czy każdy postęp dokonany przez cyberprzestępców może spotkać się z takim samym postępem ze strony specjalistów od bezpieczeństwa? Wszystko wspierane przez te same narzędzia? Oczywiście ta równowaga działa tylko tak długo, jak długo wszyscy nadążają za konkurencją. W miarę jak cyberprzestępcy stają się coraz bardziej sprawni w wykorzystywaniu AI, specjaliści ds. bezpieczeństwa będą musieli również zapewnić, że wykorzystują bardziej zaawansowane narzędzia i techniki do obrony przed tymi atakami.

Jak cyberprzestępcy korzystają z AI?

  • wykorzystują AI do identyfikacji celów; skanują internett w poszukiwaniu podatnych systemów na atka
  • tworzą AI-boty w celu naśladowania ludzkich zachowań, aby skuteczniej unikać wykrycia przez systemy bezpieczeństwa
  • generują ukierunkowane e-maili phishingowe za pomocą AI, być może przygotowane na podstawie wielu zestawów danych zdobytych w Dark Web, tak aby zawierały wiarygodne szczegóły, które pomogą zwabić cel i zbudować zaufanie (ponieważ społeczeństwo staje się coraz bardziej przyzwyczajone do interakcji z AI-botami do obsługi klienta, podszywanie się pod te chatboty może stać się użytecznym narzędziem inżynierii społecznej dla złośliwych cyberprzestępców).
    • tworzą coraz bardziej wyrafinowane złośliwe oprogramowania, np. wykorzystując sztuczną inteligencję do znajdowania możliwych do wykorzystania wzorców w systemach bezpieczeństwa i tworzą złośliwe oprogramowanie, które jest specjalnie zaprojektowane w celu uniknięcia wykrycia, 

    Jak specjaliści ds. bezpieczeństwa  korzystają z AI?

    • analizują ogromnych ilości danych z wielu źródeł w celu identyfikacji i śledzenia potencjalnych zagrożeń. Systemy Threat Intelligence mogą również uczyć się na podstawie przeszłych incydentów, co pozwala im na dostosowanie się i doskonalenie w czasie
    • oferują pracownikom szkolenia przed wystąpieniem incydentu poprzez identyfikację ryzykownych wzorców zachowań, co pozwala pracownikom do podejmowania lepszych decyzji w zakresie ochrony danych i bezpieczeństwa systemu.
    • sortują incydenty bezpieczeństwa i nadają im priorytety na podstawie poziomu ryzyka.
    • wykorzystują rekomendacje AI w celu skupienia wysiłków na najbardziej krytycznych problemach.
    • wykrywają wzorce, które wskazują na potencjalny incydent bezpieczeństwa, a następnie automatyczne uruchamiają reakcje i alarmy dla zespołów bezpieczeństwa (ostatnio udowodnione w swojej skuteczności przez NATO).
    • korzystają z automatyzacji badania incydentów; pomoc w identyfikacji pierwotnej przyczyny incydentu i powiadomienie odpowiednich stron.

    Kto więc będzie zwycięzcą w tej walce o bezpieczeństwo naszych danych i infrastruktury? Sztuczna inteligencja ma potencjał, aby zrewolucjonizować cyberbezpieczeństwo, ale nie usunie wymogu jasnej architektury i strategii.  Nie można jeszcze zlecić naszej pracy tylko maszynom i pójść zrobić sobie filiżankę kawy. W nadchodzących miesiącach i latach ważne będzie zrozumienie, że sztuczna inteligencja nie jest lekarstwem na wszystko ani samodzielnym rozwiązaniem, ale raczej narzędziem uzupełniającym, które należy stosować w połączeniu z innymi środkami bezpieczeństwa. Podobnie jak ludzki zespół bezpieczeństwa, AI wymaga ciągłego monitorowania, oceny i dostrajania, aby zapewnić, że działa zgodnie z oczekiwaniami i zająć się wszelkimi nieścisłościami w danych.

 

Źródło: Informacje prasowe