Google udostępniło rodzinę modeli open source Gemma 4

Google udostępniło rodzinę modeli open source Gemma 4 2

Google wprowadziło Gemma 4, nową rodzinę otwartych modeli sztucznej inteligencji przeznaczonych do zaawansowanego wnioskowania i przepływów pracy opartych na agentach.

„Gemma 4 to nasz jak dotąd najinteligentniejszy otwarty model. Zapewniają one bezprecedensowy poziom inteligencji w przeliczeniu na każdy parametr” – czytamy w oświadczeniu.

Od premiery pierwszej generacji, deweloperzy pobrali Gemmę ponad 400 milionów razy, tworząc ponad 100 000 wariantów modeli w ekosystemie Gemmaverse. Najnowsza wersja opiera się na tych samych badaniach i technologii, co chatbot Gemini 3.

Różne rozmiary

Rodzina sieci neuronowych Gemma 4 obejmuje cztery wersje: Effective 2B (E2B), Effective 4B (E4B), 26B Mixture of Experts (MoE) i 31B Dense.

Kompaktowe modele E2B i E4B z 2,3 miliarda i 4,5 miliarda aktywnych parametrów koncentrują się na multimodalności, niskich opóźnieniach i płynnej integracji. Można je uruchomić na smartfonie lub zwykłym laptopie.

Modele MoE 26B i flagowy 31B (parametry 26 miliardów i 31 miliardów) wymagają akceleratora graficznego Nvidia H100 z 80 GB pamięci. Modele te są zoptymalizowane pod kątem badaczy i programistów.

Starsze wersje osiągają wysokie wyniki w testach porównawczych. W światowym rankingu modeli z otwartym tekstem flagowy model Arena AI 31B zajmuje trzecie miejsce, a 26B – szóste. Według twórców, nowa linia przewyższa 20-krotnie większe odpowiedniki konkurencji.

obraz

Źródło: Google.

Główne cechy

Jedną z głównych zalet Gemmy 4 są jej zaawansowane możliwości rozumowania. Modele potrafią budować złożone układy logiczne i planować zadania w kilku etapach. Wykazują znaczny postęp w testach matematycznych i dokładnie wykonują polecenia.

Inne funkcje obejmują:

  • przepływy pracy agentów — wbudowana obsługa wywołań funkcji, ustrukturyzowanego wyjścia JSON i instrukcji systemowych umożliwia tworzenie autonomicznych asystentów, którzy wchodzą w interakcje z narzędziami iinterfejsami API ;
  • generowanie kodu — Gemma 4 obsługuje pisanie wysokiej jakości kodu w trybie offline, zmieniając stację roboczą w lokalnego asystenta AI;
  • Wizja i dźwięk — wszystkie modele przetwarzają wideo i obrazy o zmiennej rozdzielczości, rozpoznają tekst i analizują diagramy. Modele E2B i E4B obsługują również rozpoznawanie i rozumienie mowy;
  • rozszerzone okno kontekstowe – wersje kompaktowe obsługują 128 000 tokenów, a większe – do 256 000. To wystarcza do przetwarzania całych repozytoriów lub obszernych dokumentów w ramach jednego zapytania;
  • wielojęzyczność — rodzina modelowa może pracować w ponad 140 językach.

Gemma 4 jest już dostępna w Google AI Studio i Google AI Edge Gallery. Integrację obsługują również popularne narzędzia i frameworki innych firm, takie jak Hugging Face, vLLM, llama.cpp, MLX, Ollama, NVIDIA NIM i LM Studio.

Modele można konfigurować za pośrednictwem Google Colab, Vertex AI lub na lokalnych kartach graficznych. Do wdrożenia produkcyjnego dostępne jest Google Cloud, w tym Cloud Run, GKE i Sovereign Cloud.

Przypomnijmy, że na początku kwietnia Google zaprezentowało nowy model sztucznej inteligencji do generowania wideo — Veo 3.1 Lite.

No votes yet.
Please wait...

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *