6 zagro?e? zwi?zanych z ChatGPT

Izabela Myszkowska
5 Min

Liderzy ds. prawnych i zgodno?ci powinni zaj?? si? nara?eniem swojej organizacji na sze?? konkretnych zagro?e? zwi?zanych z ChatGPT oraz jakie bariery nale?y ustanowi?, aby zapewni? odpowiedzialne korzystanie z generatywnych narz?dzi sztucznej inteligencji w przedsi?biorstwie, wed?ug firmy Gartner.

Sze?? rodzajów ryzyka ChatGPT, które liderzy ds. prawnych i zgodno?ci powinni oceni?, obejmuj?:

Ryzyko 1 – sfabrykowane i niedok?adne odpowiedzi

By? mo?e najcz?stszym problemem zwi?zanym z ChatGPT i innymi narz?dziami LLM jest tendencja do dostarczania nieprawid?owych – cho? pozornie wiarygodnych – informacji.

„ChatGPT jest równie? podatny na„ halucynacje ”, w tym sfabrykowane odpowiedzi, które s? b??dne, oraz nieistniej?ce cytaty prawne lub naukowe” — powiedzia? Ron Friedmann , starszy analityk w dziale prawnym i zgodno?ci firmy Gartner „Liderzy ds. prawnych i zgodno?ci powinni wyda? wytyczne, które wymagaj? od pracowników przegl?du wszelkich danych wyj?ciowych generowanych przez ChatGPT pod k?tem dok?adno?ci, stosowno?ci i faktycznej u?yteczno?ci przed ich zaakceptowaniem”.

Ryzyko 2 – Prywatno?? i poufno?? danych

Liderzy ds. prawnych i zgodno?ci powinni mie? ?wiadomo??, ?e wszelkie informacje wprowadzane do ChatGPT, je?li historia czatów nie jest wy??czona , mog? sta? si? cz??ci? zestawu danych szkoleniowych.

„Wra?liwe, zastrze?one lub poufne informacje u?yte w monitach mog? zosta? w??czone do odpowiedzi dla u?ytkowników spoza przedsi?biorstwa” — powiedzia? Friedmann. „Prawo i zgodno?? wymagaj? ustanowienia ram zgodno?ci dla korzystania z ChatGPT i wyra?nego zakazu wprowadzania poufnych danych organizacyjnych lub osobowych do publicznych narz?dzi LLM”.

Ryzyko 3 – stronniczo?? modelu i danych wyj?ciowych

Pomimo wysi?ków OpenAI zmierzaj?cych do zminimalizowania stronniczo?ci i dyskryminacji w ChatGPT, znane przypadki tych problemów ju? wyst?pi?y i prawdopodobnie b?d? si? utrzymywa? pomimo ci?g?ych, aktywnych wysi?ków OpenAI i innych podmiotów maj?cych na celu zminimalizowanie tego ryzyka .

„Ca?kowite wyeliminowanie stronniczo?ci jest prawdopodobnie niemo?liwe, ale przepisy prawne i zgodno?? musz? by? na bie??co z przepisami reguluj?cymi stronniczo?? sztucznej inteligencji i upewni? si?, ?e ich wytyczne s? zgodne” – powiedzia? Friedmann. „Mo?e to obejmowa? wspó?prac? z ekspertami merytorycznymi w celu zapewnienia wiarygodno?ci danych wyj?ciowych oraz z funkcjami audytowymi i technologicznymi w celu ustalenia kontroli jako?ci danych”.

Ryzyko 4 – ryzyko zwi?zane z w?asno?ci? intelektualn? (IP) i prawami autorskimi

W szczególno?ci ChatGPT jest szkolony w zakresie du?ej ilo?ci danych internetowych, które prawdopodobnie zawieraj? materia?y chronione prawem autorskim. W zwi?zku z tym jego wyniki mog? potencjalnie narusza? prawa autorskie lub ochron? w?asno?ci intelektualnej.

„ChatGPT nie oferuje odniesie? do ?róde? ani wyja?nie?, w jaki sposób generowane s? dane wyj?ciowe” — powiedzia? Friedmann. „Liderzy ds. prawnych i zgodno?ci powinni bacznie obserwowa? wszelkie zmiany w prawie autorskim, które maj? zastosowanie do danych wyj?ciowych ChatGPT i wymaga? od u?ytkowników sprawdzania wszelkich danych wyj?ciowych, które generuj?, aby upewni? si?, ?e nie naruszaj? one praw autorskich ani praw w?asno?ci intelektualnej”.

Ryzyko 5 – ryzyko oszustwa cybernetycznego

Z?e podmioty ju? teraz nadu?ywaj? ChatGPT do generowania fa?szywych informacji na du?? skal? (np. fa?szywych recenzji). Co wi?cej, aplikacje korzystaj?ce z modeli LLM, w tym ChatGPT, s? równie? podatne na szybk? iniekcj?, technik? hakersk?, w której z?o?liwe monity przeciwnika s? wykorzystywane do nak?aniania modelu do wykonywania zada?, do których nie by? przeznaczony, takich jak pisanie kodów z?o?liwego oprogramowania lub opracowywanie phishingu witryny, które przypominaj? dobrze znane witryny.

„Liderzy ds. prawnych i zgodno?ci powinni koordynowa? dzia?ania z w?a?cicielami zagro?e? cybernetycznych, aby ustali?, czy i kiedy nale?y wyda? notatki s?u?bowe personelowi zajmuj?cemu si? cyberbezpiecze?stwem firmy w tej sprawie” — powiedzia? Friedmann. „Powinni równie? przeprowadzi? audyt ?róde? due diligence, aby zweryfikowa? jako?? ich informacji”.

Ryzyko 6 – Zagro?enia zwi?zane z ochron? konsumentów

Firmy, które nie ujawni? konsumentom korzystania z ChatGPT (np. w formie chatbota obs?ugi klienta), ryzykuj? utrat? zaufania klientów i oskar?enie o nieuczciwe praktyki na mocy ró?nych przepisów. Na przyk?ad kalifornijskie prawo dotycz?ce chatbotów wymaga, aby w niektórych interakcjach z konsumentami organizacje musia?y jasno i wyra?nie ujawnia?, ?e konsument komunikuje si? z botem.

„Liderzy ds. prawnych i zgodno?ci musz? zapewni?, ?e wykorzystanie ChatGPT w ich organizacji jest zgodne ze wszystkimi odpowiednimi regulacjami i prawami, a klientom zosta?y przekazane odpowiednie informacje” — powiedzia? Friedmann.

Udostępnij