Comarch wdra?a polski model AI – PLLuM

Klaudia Ciesielska
5 Min
?ród?o: Freepik/DCStudio

Polska coraz ?mielej przy??cza si? do globalnego wy?cigu technologicznego. Niedawno zaprezentowano PLLuM – polski model j?zykowy, który pozwala generowa? i przetwarza? teksty w j?zyku polskim, dobrze orientuj?c si? w specyfice rodzimej pisowni. Rozwi?zanie w swoich systemach zacz?? wykorzystywa? Comarch, który wdro?y? PLLuM-a u siebie lokalnie w aplikacji ChatERP – asystencie AI odpowiedzialnym za p?ynn? komunikacj? mi?dzy klientem a systemami do zarz?dzania firm? ERP.

PLLuM pojawi? si? na rynku raptem ponad tydzie? temu. Podstawowym celem projektu (który zosta? zrealizowany przez sze?? podmiotów naukowych na zlecenie Ministerstwa Cyfryzacji) by?o zbudowanie rodziny modeli j?zykowych dedykowanych polskiemu j?zykowi i kulturze. Tym samym odró?nia go to od innych popularnych du?ych modeli j?zykowych, które wprawdzie umo?liwiaj? komunikacj? w j?zyku polskim, ale maj? problemy z rozumieniem lokalnych kontekstów. PLLuM mo?e by? wykorzystywany zarówno w sektorze publicznym, jak i komercyjnym.

PLLuM u?atwia komunikacj? klientom Comarch

Rozwi?zanie – ze wzgl?du na jego dopasowanie j?zykowe – wykorzysta? Comarch, jeden z czo?owych polskich dostawców oprogramowania. Firma postanowi?a wdro?y? u siebie lokalnie PLLuM-a w aplikacji ChatERP, inteligentnym asystencie u?ytkownika systemów Comarch ERP, który wspiera klientów w nawigacji po interfejsie, u?atwia wykonywanie zada?, odpowiada w j?zyku naturalnym i automatyzuje powtarzalne obowi?zki. Jest to jedno z pierwszych praktycznych wdro?e? PLLuM-a na masow? skal?.

Comarch intensywnie testowa? ró?ne modele AI – zarówno te dedykowane j?zykowi polskiemu, jak i wieloj?zyczne. Ostatecznie to PLLuM okaza? si? najskuteczniejszy, dlatego w?a?nie on zosta? wybrany do silnika ChatERP.

Dlaczego zdecydowano si? na taki krok?

“Na bie??co ?ledzimy wszelkie nowo?ci, które mog? znale?? zastosowanie w rozwijanych przez nas produktach, dlatego natychmiast rozpocz?li?my weryfikacj? modeli PLLuM pod k?tem przydatno?ci w Comarch ChatERP. Okaza?o si?, ?e PLLuM znakomicie radzi sobie z generowaniem poprawnych pod wzgl?dem gramatycznym i naturalnie brzmi?cych w j?zyku polskim odpowiedzi dla u?ytkowników. Obecnie jest to pod tym wzgl?dem niew?tpliwie najskuteczniejsze dost?pne rozwi?zanie.”

mówi Mariusz Zygmu?ka, dyrektor AI/ML w Comarch Enterprise Solutions

Od teraz u?ytkownicy komunikuj?cy si? z ChatERP w systemach Comarch otrzymaj? jeszcze bardziej zrozumia?e i jasne odpowiedzi w j?zyku polskim. PLLuM ogranicza te? wstawki w innych j?zykach (np. angielskim), co u?atwia komunikacj?. Minimalizuje równie? pojawianie si? niezrozumia?ych kalek j?zykowych czy nieistniej?cych s?ów. Polski model AI dzia?a w polskim kontek?cie j?zykowym i ma bogatsze s?ownictwo, co jest szczególnie wa?ne dla Comarch, który dostarcza rozwi?zanie dla rodzimych klientów, posiadaj?c niemal 25% udzia?u w polskim rynku ERP.

“Dodatkowo, PLLuM ma rozs?dne wymagania sprz?towe i mo?e by? hostowany lokalnie. Cieszy, ?e wysi?ek konsorcjum instytucji badawczych i wy?szych uczelni zosta? udost?pniony szerokiemu gronu odbiorców. Z pewno?ci? przyczyni si? to nie tylko do popularyzacji w naszym kraju rozwi?za? opartych na AI, ale równie? do ogólnie poj?tej cyfryzacji polskiej gospodarki.”

dodaje Mariusz Zygmu?ka

“Za tworzeniem polskich modeli przemawiaj? argumenty strategicznej niezale?no?ci, kreowania innowacji, a nie tylko konsumowania, czy opracowania modeli dysponuj?cych wi?ksz? znajomo?ci? polskiej kultury, j?zyka i historii. Warto tak?e doda?, ?e PLLuM zosta? przetestowany za pomoc? narz?dzia Polish Linguistic and Cultural Competency Benchmark, które opracowali?my w OPI PIB. Osi?gn?? on bardzo dobre wyniki testów, co ?wiadczy o tym, ?e rozumie on nie tylko j?zyk polski, ale tak?e uwzgl?dnia kontekst kulturalny, z którym maj? problem niejednokrotnie angloj?zyczne modele.”

mówi dr in?. Marek Koz?owski, kierownik AI Labu z O?rodka Przetwarzania Informacji – Pa?stwowego Instytutu Badawczego (OPI PIB), jednej z instytucji zaanga?owanych w tworzenie PLLuM-a

Projekt realizowa?o sze?? podmiotów: Politechnika Wroc?awska, Instytut Podstaw Informatyki PAN, Instytut Slawistyki PAN, Naukowa i Akademicka Sie? Komputerowa, O?rodek Przetwarzania Informacji, Uniwersytet ?ódzki. Zespó? badaczy stworzy? ca?? rodzin? polskich modeli j?zykowych, od 8 do 70 mld parametrów, dostosowanych do ró?nych wyzwa? j?zykowych. To najwi?kszy polski model j?zykowy, który jako pierwszy obj?? adaptacj? j?zykow? modeli Mixture of Experts (MoE) i Llama 70B na tak du?? skal?. Podej?cie ??czy pre-trening, dostrajanie na podstawie instrukcji oraz tzw. alignment, by modele lepiej odpowiada?y na potrzeby u?ytkowników. Udost?pniono 18 modeli na HuggingFace, obejmuj?cych wersje fundamentalne, instrukcyjne i dialogowe, zabezpieczone przed nieetycznymi zachowaniami.

Udostępnij
Redaktor Brandsit