Popularno?? AI, w tym ChatGPT, to tak?e nowe wyzwania z zakresu cyberbezpiecze?stwa dla nas wszystkich.
Brytyjski Dailymail zwraca uwag? na zagro?enia zwi?zane z technologi? deepfake, zarówno dla indywidualnych u?ytkowników, jak i bezpiecze?stwa mi?dzynarodowego. – Sztuczna inteligencja rozwija si? tak szybko, ?e musimy albo sprawniej tworzy? regulacje z ni? zwi?zane albo skuteczniej uczy? si? obrony przed jej niew?a?ciwym wykorzystaniem. Deepfake, czyli tworzenie przy u?yciu metod AI materia?ów wizualnych niemo?liwych do odró?nienia od rzeczywistych, to bez w?tpienia jedno z najwi?kszych i najbardziej zaawansowanych zagro?e? cyberbezpiecze?stwa przysz?o?ci. Mo?liwo?ci wykorzystania tej technologii s? nieograniczone. Od tworzenia cyfrowych klonów ludzi, które mog? zosta? wykorzystane do znies?awiania prawdziwych osób, czy budowania fa?szywych relacji, po problemy z bezpiecze?stwem takie jak wy?udzenia czy nadu?ywanie technologii rozpoznawania twarzy. Potencjalnie zmierzamy w kierunku nowej ery internetu, w której zobaczenie czego? na w?asne oczy nie b?dzie ju? ?adnym dowodem prawdziwo?ci. Zdecydowanie wymaga to edukowania u?ytkowników, poniewa? cyberprzest?pcy sprytnie wykorzystuj? nowe technologie do ataków. Jednocze?nie bran?a cyberbezpiecze?stwa jest ?wiadoma, ?e tego typu zagro?enia wymagaj? rozwi?za? chroni?cych, opartych na uczeniu maszynowym. Technologie deep learning samodzielnie generuj? wysokiej jako?ci fa?szywe obrazy, wi?c wkrótce b?dziemy potrzebowa? nowych form wielowarstwowych zabezpiecze?, aby móc przeprowadzi? bezpiecznie nawet najprostsze transakcje, wymagaj?ce potwierdzenia to?samo?ci – mówi Kamil Sadkowski, starszy specjalista ds. cyberbezpiecze?stwa ESET.
Z kolei serwis Hackread donosi, ?e pojawi?y si? aplikacje firm trzecich udost?pniaj?ce funkcjonalno?? ChatGPT, które mog? zbiera? dane u?ytkowników i wysy?a? je na zdalne serwery. – ChatGPT sta? si? niezwykle popularny i wygl?da na to, ?e jest w stanie sprosta? wi?kszo?ci postawionych mu zada?. Jednak korzystanie z tej platformy wykorzystuj?cej sztuczn? inteligencj? aktualnie jest mo?liwe tylko z poziomu przegl?darki internetowej i nie powsta?a jeszcze dedykowana i oficjalna aplikacja mobilna. Jest to niestety okazja dla niektórych osób o z?ych zamiarach, które opracowa?y w?asne aplikacje, nadu?ywaj?ce t? technologi?. Chocia? na pierwszy rzut oka mo?e si? to wydawa? nieistotne, te aplikacje poza dost?pem do ChatGPT posiadaj? tak?e dodatkowe funkcjonalno?ci, cz?sto wymagaj?ce drogich subskrypcji. Mog? równie? gromadzi? dane u?ytkownika i urz?dzenia, a nast?pnie wykorzystywa? je do dalszych celów. Dlatego tak wa?ne, jest zwrócenie uwagi na co si? zgadzamy, korzystaj?c z aplikacji, jak równie? co jest zapisane w polityce prywatno?ci, gdy? nasze zapytania mog? by? np. przekazane firmom trzecim. Ka?da nieoficjalna aplikacja to zwi?kszone ryzyko utraty naszych danych. Dlatego u?ytkownicy powinni zachowa? ostro?no?? i zwraca? uwag? na to, co instaluj? i z jakiego ?ród?a jest aplikacja. Mówi si? o tym, ?e dane to aktualnie najcenniejsza waluta, wi?c warto nieustannie przypomina?, jak wa?na jest ich w?a?ciwa ochrona – komentuje Beniamin Szczepankiewicz, starszy specjalista ds. cyberbezpiecze?stwa ESET.