Red Hat kontynuuje rozbudow? swojego portfolio narz?dzi do zarz?dzania sztuczn? inteligencj?, koncentruj?c si? na integracji z infrastruktur? chmury hybrydowej i zwi?kszaniu kontroli nad rozwojem modeli AI. Firma udost?pni?a w?a?nie nowe wersje Red Hat OpenShift AI (2.18) oraz Red Hat Enterprise Linux AI (1.4), adresuj?c rosn?ce zapotrzebowanie na skalowalne, bezpieczne ?rodowiska do pracy z modelami j?zykowymi i uczeniem maszynowym.
Red Hat wyra?nie stawia na budowanie otwartego, kontrolowanego i zgodnego z regulacjami podej?cia do sztucznej inteligencji – zarówno na poziomie technologii, jak i kompetencji u?ytkowników. W przeciwie?stwie do czysto chmurowych platform AI, jego propozycja wyró?nia si? elastyczno?ci? i naciskiem na adaptacj? modeli do lokalnych danych i warunków. Dla partnerów kana?owych oznacza to szans? na nowe projekty wdro?eniowe – zw?aszcza w sektorach, które ceni? sobie przewidywalno??, bezpiecze?stwo i pe?n? kontrol? nad infrastruktur? AI.
Szybsze, bardziej elastyczne OpenShift AI
Wersja 2.18 OpenShift AI przynosi kilka usprawnie?, które maj? upro?ci? prac? zespo?ów zajmuj?cych si? MLOps i LLMOps. Jedn? z wa?niejszych nowo?ci jest integracja z serwerem wnioskowania vLLM, co umo?liwia rozproszon? obs?ug? du?ych modeli AI. Dzi?ki wykorzystaniu wielu GPU, przetwarzanie danych i generowanie wyników staje si? szybsze i bardziej wydajne – co mo?e mie? znaczenie dla firm planuj?cych wdro?enia generatywnej AI na wi?ksz? skal?.
Platforma zyskuje te? nowe narz?dzia do personalizacji modeli. Modu? InstructLab, zintegrowany z pipeline’ami OpenShift AI, upraszcza proces dostosowywania modeli do specyfiki danych firmowych, bez konieczno?ci budowania wszystkiego od podstaw. Dodatkowo pojawiaj? si? tzw. por?cze AI – mechanizmy ograniczaj?ce ryzyko generowania niepo??danych tre?ci lub ujawniania poufnych informacji.
Organizacje zainteresowane ocen? jako?ci modeli mog? teraz skorzysta? z narz?dzia lm-eval, które pozwala na ich testowanie pod k?tem rozumienia tekstu czy zdolno?ci logicznego wnioskowania.
RHEL AI z mocniejszym modelem i nowym interfejsem
Równolegle Red Hat udost?pnia aktualizacj? RHEL AI – lekkiego ?rodowiska AI opartego na CentOS Stream i zoptymalizowanego pod k?tem edge computingu oraz lokalnych wdro?e?. Wersja 1.4 wprowadza obs?ug? nowego modelu Granite 3.1 8B, który oferuje zwi?kszone okno kontekstowe i obs?ug? wielu j?zyków. To kolejny krok w stron? bardziej uniwersalnych modeli, lepiej dopasowanych do zró?nicowanych przypadków u?ycia.
Nowo?ci? jest równie? graficzny interfejs do eksploracji danych oraz narz?dzie DK-bench, s?u??ce do porównywania modeli pod k?tem wydajno?ci i jako?ci wyników.
InstructLab w IBM Cloud i nowa oferta szkole?
Wiosn? Red Hat udost?pni InstructLab tak?e w IBM Cloud, oferuj?c klientom dodatkow? przestrze? do bezpiecznego trenowania i wdra?ania modeli. Rozwi?zanie ma zapewnia? pe?n? kontrol? nad danymi i by? alternatyw? dla organizacji, które z ró?nych wzgl?dów unikaj? publicznych ?rodowisk AI-as-a-Service.
Dla klientów zainteresowanych rozwini?ciem kompetencji AI, Red Hat przygotowa? bezp?atne szkolenie AI Foundations – skierowane zarówno do osób zaczynaj?cych prac? z AI, jak i tych, którzy chc? pog??bi? wiedz? i pozna? najlepsze praktyki wdro?eniowe.