OpenAI ujawnia nowe zagro?enia: Hakerzy wykorzystuj? AI do tworzenia z?o?liwego kodu

Klaudia Ciesielska
3 Min
?ród?o: Pexels

W ostatnich latach sztuczna inteligencja (AI) zyskuje na popularno?ci i w coraz wi?kszym stopniu wspiera rozwój technologii oraz automatyzacj? wielu dziedzin ?ycia. Jednak wraz z rosn?c? pot?g? AI pojawiaj? si? równie? nowe zagro?enia, co potwierdza raport Threat Intelligence opublikowany przez firm? OpenAI – twórców znanego chatbota ChatGPT. W swoim najnowszym dokumencie, OpenAI ujawnia, ?e zak?óci?o ju? oko?o dwudziestu operacji hakerskich, w których z?o?liwe grupy wykorzystywa?y AI do generowania nieuczciwego kodu i przeprowadzania cyberataków.

Hakerzy i AI – nowa forma zagro?enia

Raport przedstawia, jak sztuczna inteligencja, która zrewolucjonizowa?a wiele sektorów, od programowania po obs?ug? klienta, sta?a si? równie? narz?dziem w r?kach cyberprzest?pców. W ostatnich miesi?cach odnotowano wzrost przypadków, w których hakerzy wykorzystuj? AI do tworzenia z?o?liwego oprogramowania. Jak wynika z raportu OpenAI, niektóre z tych z?o?liwych ataków zawiera?y fragmenty kodu wygenerowane bezpo?rednio przez modele AI, takie jak ChatGPT.

W analizie wskazano, ?e cyberprzest?pcy u?ywaj? sztucznej inteligencji nie tylko do tworzenia kodu, ale równie? do omijania systemów bezpiecze?stwa oraz przeprowadzania bardziej wyrafinowanych ataków. Przyk?adem s? ataki typu spearphishing, gdzie zaawansowane modele AI by?y wykorzystywane do personalizacji wiadomo?ci phishingowych, co zwi?ksza skuteczno?? oszustw.

20 operacji zak?óconych przez OpenAI

Firma OpenAI podkre?la, ?e dzi?ki swoim narz?dziom i technologiom uda?o si? zak?óci? dzia?alno?? oko?o dwudziestu operacji hakerskich oraz sieci dezinformacyjnych, które wykorzystywa?y AI do nielegalnych celów. Dzia?ania te obejmowa?y wspó?prac? z ró?nymi zespo?ami wywiadu, bezpiecze?stwa oraz organami ?cigania.

Jednym z najwa?niejszych aspektów raportu jest przedstawienie przyk?adów grup hakerskich, które stosowa?y zaawansowane modele AI w swoich operacjach. W?ród nich wymieniono m.in. chi?sk? grup? SweetSpecter, która anga?owa?a si? w rozpowszechnianie dezinformacji, oraz grupy takie jak CyberAv3ngers i STORM-0817, które koncentrowa?y si? na bardziej technicznych atakach, wykorzystuj?c AI do tworzenia z?o?liwego kodu oraz naruszania systemów bezpiecze?stwa.

Nadu?ycia modeli AI – wyzwanie dla bran?y technologicznej

Cho? sztuczna inteligencja oferuje ogromne mo?liwo?ci dla rozwoju technologii i przemys?u, raport OpenAI uwypukla zagro?enie zwi?zane z jej nadu?ywaniem. Modele AI, które z za?o?enia maj? wspiera? programistów i zwi?ksza? produktywno??, mog? równie? zosta? u?yte do tworzenia narz?dzi wykorzystywanych przez cyberprzest?pców. OpenAI zwraca uwag?, ?e wspó?czesne modele AI nie tylko generuj? poprawny kod, ale mog? równie?, ?wiadomie lub nie, by? ?ród?em z?o?liwych rozwi?za?, je?li trafi? w nieodpowiednie r?ce.

OpenAI zaznacza, ?e stale wspó?pracuje z organami ?cigania, zespo?ami badawczymi i ekspertami ds. bezpiecze?stwa, aby lepiej rozumie?, jak z?o?liwi aktorzy mog? wykorzystywa? AI w przysz?o?ci. Firma deklaruje równie?, ?e nieustannie rozwija swoje narz?dzia i polityki bezpiecze?stwa, aby przeciwdzia?a? potencjalnym zagro?eniom.

Udostępnij
Redaktor Brandsit