Trwa ładowanie...

Alior Bank ostrzega wszystkich klientów. Chodzi o sztuczną inteligencję

Alior Bank ostrzega klientów przez cyberprzestępcami, którzy wykorzystują sztuczną inteligencję. Jak zauważa, każdy z użytkowników może być narażony na siedem rodzajów ataków. Instytucja podpowiada, jak się przed nimi uchronić.

Alior Bank ostrzega klientów przed atakami z użyciem AIAlior Bank ostrzega klientów przed atakami z użyciem AIŹródło: East News, fot: ARKADIUSZ ZIOLEK
dhncu0e
dhncu0e

Oszuści internetowi nie odpuszczają i cały czas opracowują nowe metody kradzieży i wyłudzania danych. Wraz z rozwojem technologii zaczęli wykorzystywać sztuczną inteligencję na różnych etapach swoich nielegalnych działań.

Dalsza część artykułu pod materiałem wideo

Im większe ryzyko, tym większa musi być marża - Jarosław Szanajca - Dom Development w Biznes Klasie

Jak wskazuje portal dobreprogramy.pl, AI może być używana nie tylko do przygotowania ataku, lecz także do jego realizacji i przechwytywania danych.

dhncu0e

Siedem ataków, w których pomaga sztuczna inteligencja

Z komunikatu bezpieczeństwa, który opublikował Alior Bank, wynika, że sztuczna inteligencja może posłużyć do siedmiu rodzajów ataków. Są to:

  • phishing,
  • fałszowanie tożsamości,
  • inżynieria społeczna,
  • kryptoanalizy,
  • tworzenie złośliwego oprogramowania,
  • ataki z użyciem botów,
  • ataki złożone.

W przypadku bardzo popularnego phishingu sztuczna inteligencja pomaga generować treść wiadomości SMS czy wiadomości mailowych, która nie jest wychwytywana przez systemy filtrujące, ponieważ wydaje się wiarygodna. Generatywne modele AI mogą być także wykorzystywane do tworzenia fałszywych obrazów, nagrań głosowych i manipulowania informacjami, a stąd już prosta droga do zafałszowania tożsamości.

W przypadku inżynierii społecznej sztuczna inteligencja może analizować media społecznościowe, aby pomóc oszustom w tworzeniu profili użytkowników, którzy staną się ich ofiarami. Z kolei w kontekście kryptoanalizy AI może być przydatna w łamaniu haseł.

dhncu0e

Jeśli chodzi o tworzenie złośliwego oprogramowania, to Alior Bank zwraca uwagę, że AI może automatycznie budować nowe warianty malware'u, co może być trudniejsze do wykrycia przez oprogramowanie zabezpieczające. Natomiast w przypadku ataków z użyciem botów sztuczna inteligencja może posłużyć do testowania sieci i wyszukiwania luk, które oszuści mogą wykorzystać do późniejszych ataków.

W przypadku ataków złożonych rola AI może być nieoceniona. Alior Bank zwraca uwagę, że sztuczna inteligencja może być przydatna w analizie wzorców i do przewidywania zachowań użytkowników. Dzięki temu ataki mogą być lepiej przygotowane, a co za tym idzie - będą bardziej ukierunkowane i skuteczniejsze.

Jak uchronić się przed atakami z użyciem AI?

W komunikacie Alior Bank wskazuje na kilka zasad, których powinniśmy przestrzegać, aby zabezpieczyć się przed atakami. Instytucja radzi, aby ograniczyć liczbę informacji na swój temat w mediach społecznościowych. Zdjęcia powinniśmy wysyłać w prywatnych wiadomościach i nie publikować ich na publicznie dostępnych profilach.

dhncu0e

Poza tym trzeba szczegółowo weryfikować informacje i treści wiadomości mailowych. W przypadku rozmów telefonicznych należy upewnić się, że znamy numer i samodzielnie oddzwonić, aby wykluczyć spoofing telefoniczny.

Jeśli telefonuje do nas osoba podająca się np. za urzędnika czy policjanta, to możemy zadawać bardziej skomplikowane pytania, na które znamy odpowiedź i wymuszać reakcję "tak" lub nie". Z kolei w sytuacji, gdy rozmówca podszywa się pod pracownika Alior Banku można go sprawdzić przy użyciu hasła weryfikacyjnego lub poprzez powiadomienie w aplikacji Alior Mobile.

O tym, jak łatwo wpaść w sidła fałszywych rozmówców przekonał się niedawno mieszkaniec Gdańska. Jak już informowaliśmy w WP, do 40-latka zgłosił się oszust internetowy, który podawał się za porucznika amerykańskiej armii. Od poszkodowanego wyłudził ponad 100 tys. zł.

Masz newsa, zdjęcie lub filmik? Prześlij nam przez dziejesie.wp.pl
dhncu0e
Oceń jakość naszego artykułu:
Twoja opinia pozwala nam tworzyć lepsze treści.

Komentarze

Trwa ładowanie
.
.
.
dhncu0e