ChatGPT zwróci? uwag? kadry kierowniczej w ca?ym przedsi?biorstwie, a dyrektorzy finansowi powinni prze?ama? ten szum i przedstawi? swoj? unikaln?, skoncentrowan? na ryzyku perspektyw? oceny mo?liwo?ci dzi?ki tej nowej technologii.
ChatGPT to generatywna aplikacja AI ; która uczy si? na podstawie danych, których nast?pnie u?ywa do generowania oryginalnych artefaktów, takich jak odpowied? na pytanie, esej na?laduj?cy styl okre?lonego pisarza lub fragment kodu programistycznego. Odegra to znacz?c? rol? dla dyrektorów finansowych, którzy wdra?aj? autonomiczn? funkcj? finansow?, o czym mówi Mark D. McDonald, Starszy Analityk-Dyrektor w firmie Gartner Finance.
Zainteresowanie ChatGPT i generatywn? sztuczn? inteligencj? stale ro?nie w ró?nych bran?ach. Jak dyrektorzy finansowi powinni zaj?? si? t? technologi?, której po?wi?ca si? tyle uwagi?
Mark McDonald: Dyrektorzy finansowi powinni wykorzystywa? swoj? unikaln? perspektyw? skoncentrowan? na ryzyku, aby forsowa? i pomaga? w kszta?towaniu polityki na poziomie organizacyjnym, która ogranicza ryzyko stwarzane przez nieograniczone korzystanie z ChatGPT, w tym ryzyko zwi?zane z jako?ci? danych wyj?ciowych, ryzyko zwi?zane z bezpiecze?stwem danych i ryzyko regulacyjne, a tak?e jako ich dalsze implikacje.
Musz? ustali? priorytety dotycz?ce wymaga? wst?pnych dotycz?cych przysz?ego wykorzystania ChatGPT i podobnych technologii w funkcji finansowej, w tym zidentyfikowa? odpowiednie potencjalne przypadki u?ycia i omówi?, w jaki sposób ChatGPT i inne aplikacje oparte na du?ych modelach j?zykowych mog? pasowa? do strategii technologicznej tej funkcji, a tak?e jak pracownicy postrzegaj? t? technologia.
W jaki sposób ChatGPT wp?ynie na finanse przedsi?biorstw?
Mark McDonald: ChatGPT jest doskona?ym przyk?adem warto?ci, jak? sztuczna inteligencja mo?e wnie?? , ale obecnie ma pewne ograniczenia w praktycznym zastosowaniu w finansach. Na przyk?ad u?ycie go, aby pomóc liderowi finansowemu w generowaniu kodu oprogramowania lub instrukcji SQL, jest ?wietnym zastosowaniem; jednak zadawanie mu pyta? o ich finanse nie zadzia?a.
Dzieje si? tak dlatego, ?e algorytmy takie jak ChatGPT mog? odpowiada? tylko na pytania, na które zosta?y przeszkolone. Bez szczegó?owych danych organizacji CFO nie s? w stanie udzieli? dok?adnej informacji zwrotnej. Co wi?cej, ChatGPT spróbuje udzieli? odpowiedzi, nawet je?li nie ma mo?liwo?ci poprawnej odpowiedzi.
W ko?cu mo?emy spodziewa? si? bezpiecznych us?ug podobnych do ChatGPT, które s? skoncentrowane na konkretnych organizacjach, ale to zajmie troch? czasu. Na razie liderzy powinni skupi? si? na zmianie kultury i umiej?tno?ci w kierunku korzystania z zaawansowanych technologii i upewnieniu si?, ?e ich zespo?y maj? odpowiednie mo?liwo?ci w miar? rozwoju technologii.
Niektórzy ludzie obawiaj? si?, ?e ChatGPT i inne formy sztucznej inteligencji zabior? miejsca pracy w finansach przedsi?biorstw. Czy ten strach jest uzasadniony?
Mark McDonald: Wi?kszo?? osób zatrudnionych w dziale finansowym powie ci, ?e nie brakuje pracy do wykonania. W wielu przypadkach finanse polegaj? tylko na dotrzymaniu kroku niezb?dnemu minimum prowadzenia dzia?alno?ci i spe?nianiu wymogów regulacyjnych. Sztuczna inteligencja stwarza okazj? do podniesienia tej poprzeczki, zwi?kszaj?c ludzk? produktywno??, tak aby finanse zamiast by? tylko biurokracj? podtrzymuj?c? ?wiat?o, sta?y si? strategiczn? d?wigni? w biznesie.
Prawd? jest wi?c, ?e wiele ról mo?e ulec zmianie , a niektóre zostan? utracone, ale zostan? utworzone nowe miejsca pracy. Sztuczna inteligencja nie zast?pi ludzi jako takich, ale zast?pi ludzi, którzy nie u?ywaj? sztucznej inteligencji, poniewa? staje si? to najbardziej produktywnym sposobem prowadzenia dzia?alno?ci.
Zamiast postrzega? automatyzacj? funkcji finansowej jako zmniejszaj?c? liczb? potrzebnych pracowników, spójrz na ni? jako na sposób na zwi?kszenie zakresu tego, co mo?na osi?gn?? przy tej samej liczbie pracowników.
Jakie ryzyko istnieje dla liderów finansowych, którzy przenosz? zbyt du?? kontrol? na sztuczn? inteligencj??
Mark McDonald: Istnieje wiele zagro?e? zwi?zanych z nadawaniem zbyt du?ej kontroli dowolnej maszynie, a ponadto istnieje ryzyko zwi?zane z oczekiwaniem od niej perfekcji.
Liderzy finansowi maj? tendencj? do utrzymywania AI wed?ug znacznie wy?szych standardów ni? w przypadku ludzkiego pracownika. Je?li takie oczekiwanie prowadzi do niewystarczaj?cego nadzoru lub kontroli, w tym tkwi ogromne ?ród?o ryzyka. Dzieje si? tak zw?aszcza w przypadku ?ci?le regulowanych funkcji, takich jak finanse, gdzie na przyk?ad b??d w og?oszeniu o zarobkach mo?e prowadzi? do bardzo wysokich kar dla firmy.
Oczekiwanie za du?o to nie tylko oczekiwanie doskona?o?ci, ale tak?e ryzyko. Rozpoczynaj?c przygod? ze sztuczn? inteligencj?, liderzy finansowi powinni wybra? bardzo w?sko zdefiniowane zadanie, po którym ludzie musz? przyjrze? si? wynikom i wprowadzi? zmiany w procesach i maszynach w miar? pojawiania si? b??dów i wyj?tków.