Sztuczna inteligencja rozwija się w zawrotnym tempie. Na rynku pojawiają się kolejne duże modele językowe. Nie wszystkie jednak dobrze funkcjonują w języku polskim. W tym artykule przedstawimy polskie modele językowe.
W czasie, gdy sztuczna inteligencja tak mocno zyskuje na znaczeniu, ważne, aby każdy mógł z niej skorzystać. Większość dużych modeli językowych funkcjonuje przede wszystkim w języku angielskim. Są one trenowane na ogromnych zbiorach danych tekstowych, które dominują w tym języku. 2024 rok stał się jednak przełomowy. Pojawił się pierwszy polski duży model językowy, a drugi jest już w drodze. Poznajcie je.
Large Language Model — czym jest?
Large Language Models, czyli po polsku duże modele językowe, to zaawansowane systemy sztucznej inteligencji zaprojektowane do przetwarzania i generowania języka podobnego do ludzkiego. Są one szkolone na ogromnych ilościach danych językowych tak, by zrozumieć wzorce i struktury, a następnie generować teksty, dialogi i tłumaczenia.
Systemy LLM charakteryzują się ogromnym rozmiarem, zwykle mierzonym w miliardach parametrów. Umożliwia im to wychwytywanie skomplikowanych relacji między słowami. Następnie systemy uczą się, przetwarzając ogromne zbiory danych. Starają się przewidywać wzorce i struktury językowe, aż osiągną wysoki poziom dokładności i będą w stanie generować treści brzmiące naturalnie dla człowieka.
Bielik AI — co musisz o nim wiedzieć
Bielik to nowoczesny polski model językowy (LLM), który został stworzony przez społeczność SpeakLeash we współpracy z Akademią Górniczo-Hutniczą (AGH).
Podstawy działania
Pierwotnie Bielik oparty był na architekturze Mistral-7B i posiadał 7 miliardów parametrów. Wersja Bielika v2, która została niedawno wprowadzona, zwiększa tę liczbę do 11 miliardów. Dzięki temu model znacznie lepiej radzi sobie z rozumieniem kontekstu i generuje bardziej złożone i naturalne odpowiedzi.
W nowej wersji zwiększono także okno kontekstowe do ponad 32 tysięcy tokenów, co umożliwia przetwarzanie dłuższych tekstów i wykonywanie bardziej skomplikowanych zadań.
Charakterystyka Bielika
Bielik dostępny jest na licencji open-source. Jego kod źródłowy jest dostępny dla wszystkich, co sprzyja jego modyfikacji i rozwojowi przez społeczność. Umożliwia to także wykorzystanie modelu w zastosowaniach komercyjnych.
Model specjalizuje się w generowaniu różnorodnych treści, od prostych odpowiedzi po bardziej złożone formy, takie jak wiersze czy opowiadania. Bielik jest również zdolny do analizy tekstów, wykrywania mowy nienawiści oraz rozpoznawania ironii i sarkazmu.
To narzędzie świetnie sprawdzi się w edukacji, biznesie oraz moderacji treści. Może być używany do usprawnienia komunikacji w obsłudze klienta oraz w analizie danych.
Bielika można pobrać na swoje urządzenie lokalne z platformy HugginFace lub skorzystać online.
Ograniczenia polskich modeli językowych
Choć cieszy nas powstanie Bielika, przed nim wciąż długa droga do doskonałości. 11 miliardów parametrów to nadal dość mało w porównaniu na przykład z GPT-3, który ma ich aż 175 miliardów. Z tego powodu Bielik może mieć problemy z generowaniem bardzo długich tekstów bez odpowiedniego kontekstu, a niektóre odpowiedzi mogą być mniej precyzyjne.
Jak przyznają twórcy, największe wyzwanie stanowi pozyskanie sprawdzonych danych w języku polskim. Liczba treści w internecie po polsku jest znacznie mniejsza niż po angielsku, co ogranicza dane treningowe dla modelu.
PLLuM czyli Polish Large Language Model
Projekt PLLuM (Polish Large Language Model) to inicjatywa mająca na celu stworzenie otwartego polskojęzycznego modelu językowego. Jego publikacja została zaplanowana na grudzień 2024 r.
Inicjatorami PLLuM jest sześć czołowych polskich instytucji badawczych, w tym Politechnika Wrocławska, NASK, OPI PIB, Instytut Podstaw Informatyki PAN, Uniwersytet Łódzki oraz Instytut Slawistyki PAN.
Cele projektu
Głównymi założeniami dla powstania PLLuM są:
- Rozwój narzędzi AI — projekt PLLuM ma na celu wspieranie innowacji w różnych sektorach, zarówno publicznych, jak i prywatnych, poprzez tworzenie zaawansowanych asystentów oraz innych narzędzi wykorzystujących przetwarzanie języka naturalnego.
- Gromadzenie danych — kluczowym elementem projektu jest zbieranie i opracowywanie obszernego zbioru danych w języku polskim. Jest to niezbędne do skutecznego trenowania modelu i zapewnienia jego wysokiej jakości.
- Dostępność — model PLLuM będzie udostępniony na zasadach otwartego oprogramowania, co umożliwi jego wykorzystanie w różnych aplikacjach, w tym w administracji publicznej. Taka strategia zapewni szeroki dostęp do narzędzi AI i wspomoże ich wdrażanie w różnych dziedzinach.
- Bezpieczeństwo i etyka — twórcy dążą do tego, by model był bezpieczny, wolny od treści szkodliwych i nieprawdziwych. Jest to kluczowe, jeżeli system ma być wykorzystywany w administracji publicznej.
Znaczenie polskich modeli językowych
Bielik i PLLuM są odpowiedzią na potrzeby polskich użytkowników. Na rynku brakuje modeli językowych przystosowanych do języka polskiego i polskich realiów. Polskie duże modele językowe znajdą zastosowanie w wielu dziedzinach — od biznesu, przez naukę, aż po codzienne zapytania. Rozwój i udoskonalenie Bielika i PLLuM mogą znacznie przyczynić się do zwiększenia konkurencyjności polskiego rynku AI.
Chcesz dowiedzieć się więcej o sztucznej inteligencji w praktyce? A może nie wierzysz, że AI można skutecznie wykorzystać do wyszukiwania i analizowania danych? Weź udział w szkoleniu AI w researchu i naucz się jak wykorzystać AI do usprawnienia codziennej pracy.