epoint

Wraz z rozwojem sztucznej inteligencji (AI), na LinkedIn i w mediach internetowych rozgorzała dyskusja na temat korzyści, jakie może ona przynieść zarówno podmiotom odpowiedzialnym za zagrożenia, jak i zespołom odpowiedzialnym za bezpieczeństwo.

Choć AI może być potężnym narzędziem dla cyberprzestępców, pozwalając im na automatyzację ataków i skuteczniejsze unikanie wykrycia, może być również potężnym narzędziem dla specjalistów ds. bezpieczeństwa, pozwalając im na szybsze i skuteczniejsze wykrywanie i reagowanie na zagrożenia.

Steve Foster z Netskope, Senior Solutions Engineer

Kto wygra ten pojedynek? Jak sztuczna inteligencja jest wykorzystywana przez cyberprzestępców a jak przez specjalistów od zabezpieczeń i bezpieczeństwa?- analizuje Steve Foster z Netskope, Senior Solutions Engineer.

Te polaryzujące prognozy skłaniają do zastanowienia się, czy wpływ AI na bezpieczeństwo cybernetyczne może się w końcu zrównoważyć? Czy każdy postęp dokonany przez cyberprzestępców może spotkać się z takim samym postępem ze strony specjalistów od bezpieczeństwa? Wszystko wspierane przez te same narzędzia?

Oczywiście ta równowaga działa tylko tak długo, jak długo wszyscy nadążają za konkurencją. W miarę jak cyberprzestępcy stają się coraz bardziej sprawni w wykorzystywaniu AI, specjaliści ds. bezpieczeństwa będą musieli również zapewnić, że wykorzystują bardziej zaawansowane narzędzia i techniki do obrony przed tymi atakami.

Jak cyberprzestępcy korzystają z AI?

• wykorzystują AI do identyfikacji celów; skanują internet w poszukiwaniu podatnych systemów na ataki

• tworzą AI-boty w celu naśladowania ludzkich zachowań, aby skuteczniej unikać wykrycia przez systemy bezpieczeństwa

• generują ukierunkowane e-maile phishingowe za pomocą AI, być może przygotowane na podstawie wielu zestawów danych zdobytych w Dark Web, tak aby zawierały wiarygodne szczegóły, które pomogą zwabić cel i zbudować zaufanie (ponieważ społeczeństwo staje się coraz bardziej przyzwyczajone do interakcji z AI-botami do obsługi klienta, podszywanie się pod te chatboty może stać się użytecznym narzędziem inżynierii społecznej dla złośliwych cyberprzestępców).

• tworzą coraz bardziej wyrafinowane złośliwe oprogramowania, np. wykorzystując sztuczną inteligencję do znajdowania możliwych do wykorzystania wzorców w systemach bezpieczeństwa i tworzą złośliwe oprogramowanie, które jest specjalnie zaprojektowane w celu uniknięcia wykrycia,

Jak specjaliści ds. bezpieczeństwa korzystają z AI?

• analizują ogromnych ilości danych z wielu źródeł w celu identyfikacji i śledzenia potencjalnych zagrożeń. Systemy Threat Intelligence mogą również uczyć się na podstawie przeszłych incydentów, co pozwala im na dostosowanie się i doskonalenie w czasie

• oferują pracownikom szkolenia przed wystąpieniem incydentu poprzez identyfikację ryzykownych wzorców zachowań, co pozwala pracownikom do podejmowania lepszych decyzji w zakresie ochrony danych i bezpieczeństwa systemu.

• sortują incydenty bezpieczeństwa i nadają im priorytety na podstawie poziomu ryzyka.

• wykorzystują rekomendacje AI w celu skupienia wysiłków na najbardziej krytycznych problemach.

• wykrywają wzorce, które wskazują na potencjalny incydent bezpieczeństwa, a następnie automatyczne uruchamiają reakcje i alarmy dla zespołów bezpieczeństwa (ostatnio udowodnione w swojej skuteczności przez NATO).

• korzystają z automatyzacji badania incydentów; pomoc w identyfikacji pierwotnej przyczyny incydentu i powiadomienie odpowiednich stron.

Kto więc będzie zwycięzcą w tej walce o bezpieczeństwo naszych danych i infrastruktury?

Sztuczna inteligencja ma potencjał, aby zrewolucjonizować cyberbezpieczeństwo, ale nie usunie wymogu jasnej architektury i strategii. Nie można jeszcze zlecić naszej pracy, tylko maszynom i pójść zrobić sobie filiżankę kawy. W nadchodzących miesiącach i latach ważne będzie zrozumienie, że sztuczna inteligencja nie jest lekarstwem na wszystko ani samodzielnym rozwiązaniem, ale raczej narzędziem uzupełniającym, które należy stosować w połączeniu z innymi środkami bezpieczeństwa. Podobnie jak ludzki zespół bezpieczeństwa, AI wymaga ciągłego monitorowania, oceny i dostrajania, aby zapewnić, że działa zgodnie z oczekiwaniami i zająć się wszelkimi nieścisłościami w danych.

Subscribe
Powiadom o
guest
0 komentarzy
najstarszy
najnowszy oceniany
Inline Feedbacks
View all comments