Mistral Medium 3.5 × BibiGPT

Mistral AI wypuścił Medium 3.5 dnia 29.04.2026 — model dense o 128 miliardach parametrów z oknem kontekstu 256K tokenów, wydany na zmienionej licencji MIT, która jawnie zezwala na komercyjne wdrożenie. BibiGPT routuje podsumowania długich filmów, Q&A wielu dokumentów i pipeline'y self-hosted przez Mistral 3.5 jako jeden z backendów long-context, obok Claude Opus 4.7 i DeepSeek-V4.

Wydany · 29.04.2026 128B dense · 256K kontekstu Zmieniona licencja MIT

Kluczowe fakty (90 sekund czytania)

Stan na 07.05.2026: Mistral AI wydał Medium 3.5 dnia 29.04.2026 — gęsty model o 128 miliardach parametrów z oknem kontekstu 256K tokenów, na zmienionej licencji MIT, która jawnie zezwala na użytek komercyjny. Self-hosting, odsprzedaż SaaS i osadzanie w produktach płatnych są objęte licencją. Dla użytkowników BibiGPT 256K wystarcza, by zmieścić transkrypcję 2-godzinnego podcastu lub stos wielodokumentowy w jednym promptie — bez chunkingu, bez utraty odniesień.

Features

Co przynosi Mistral Medium 3.5?

Model dense 128B — nie MoE — z oknem kontekstu 256K i zmienioną licencją MIT, która łagodzi komercyjne ograniczenia poprzednich checkpointów Mistral.

Architektura dense 128B

Medium 3.5 to gęsty Transformer o 128 miliardach parametrów. Brak routingu Mixture-of-Experts — wszystkie parametry odpalają na każdy token, co upraszcza fine-tuning i inferencję on-prem w porównaniu z rzadkimi flagowcami MoE.

Okno kontekstu 256K tokenów

Okno kontekstu rośnie do 256 000 tokenów — mniej więcej tyle co transkrypcja podcastu o długości 2,5 h, cała książka techniczna lub stos powiązanych prac badawczych w jednym promptie. Wystarczająco, by uniknąć retrievalu w większości obciążeń BibiGPT.

Zmieniona MIT — odblokowane zastosowanie komercyjne

Mistral zaktualizował licencję do zmienionej MIT, która jawnie zezwala na komercyjne wdrożenie. Self-hosting, odsprzedaż SaaS i osadzanie w produktach płatnych — wszystkie objęte licencją bez osobnej umowy.

Co 256K kontekstu + otwarta licencja oznaczają dla użytkowników BibiGPT

Kluczowa praca BibiGPT to zamiana długich filmów i podcastów w ustrukturyzowane notatki. 256K tokenów wystarcza do podsumowania długich treści end-to-end, a zmieniona MIT odblokowuje wdrożenia self-hosted dla zadań wrażliwych na prywatność.

Pełne podsumowanie transkrypcji

90-minutowy wykład, 2-godzinny podcast lub stos wielodokumentowy mieści się w jednym promptie 256K — bez artefaktów chunkingu, bez utraty odniesień między sekcjami.

Pytania i odpowiedzi przekrojowe w kursie

Połącz transkrypcje wieloodcinkowego kursu lub playlisty YouTube w jeden prompt. Zapytaj „w którym odcinku było X?” i otrzymaj odpowiedź z jednej inferencji — bez indeksu retrievalu, który gubi cytaty między granicami odcinków.

Self-hosting dla treści wrażliwych

Zmieniona MIT pozwala bezpłatnie uruchomić Medium 3.5 na własnych GPU. Wrażliwe spotkania korporacyjne, treści płatnych kursów czy archiwa płatnych podcastów można podsumować on-premise, bez wysyłania audio ani transkrypcji do zewnętrznego API.

5 kluczowych zmian (90 sekund czytania)

Najważniejsze przesunięcia z wydania Mistral Medium 3.5.

  1. 1

    Wydany 29.04.2026

    Mistral AI wypuścił Medium 3.5 dnia 29 kwietnia 2026 — premiera w Q2, która wpada w to samo okno co Claude Opus 4.7 i DeepSeek-V4 w grupie flagowców long-context.

  2. 2

    128B dense — nie MoE

    Medium 3.5 to gęsty Transformer o 128 miliardach parametrów. Każdy parametr aktywuje się na token, co upraszcza fine-tuning i inferencję on-prem w porównaniu do rzadkich flagowców MoE.

  3. 3

    Okno kontekstu 256K tokenów

    Kontekst rozszerza się do 256 000 tokenów — około 200K angielskich słów, cała książka albo transkrypcja 2-godzinnego podcastu od początku do końca. Wystarczająco, by uniknąć retrievalu w większości podsumowań w stylu BibiGPT.

  4. 4

    Zmieniona MIT — odblokowane zastosowanie komercyjne

    Mistral zaktualizował licencję do zmienionej MIT, która jawnie zezwala na komercyjne wdrożenie. Self-hosting, odsprzedaż SaaS i osadzanie w produktach płatnych są objęte licencją — bez osobnej umowy z Mistral.

  5. 5

    Dołącza do grupy flagowców long-context

    Medium 3.5 staje obok Claude Opus 4.7 (200K, closed) i DeepSeek-V4 (1M, MoE) w warstwie long-context — wybór po postawie licencyjnej, śladzie infra i obciążeniu rozumowaniem, a nie po luce w możliwościach.

3 typowe scenariusze dla użytkowników BibiGPT

Oparte na realnych personach BibiGPT — wszystkie do realizacji już dziś.

Długa transkrypcja wideo — podsumowanie w jednym promptie

Użyj BibiGPT do wyciągnięcia transkrypcji 2-godzinnego podcastu lub wykładu, a krok podsumowania zruszuj na Mistral Medium 3.5. Pełna transkrypcja mieści się w 256K kontekście, więc podsumowanie zachowuje odniesienia przekrojowe, bez sklejania podsumowań chunków.

Wyszukiwanie wielodokumentowe — cały stos na wejście

Połącz wyciągnięte przez BibiGPT transkrypcje wieloodcinkowego kursu lub powiązanych prac badawczych. Z 256K marginesu zapytaj „który odcinek wspominał o X?” i odpowiedź pada od razu, bez zewnętrznej warstwy retrievalu, która gubi cytaty między granicami odcinków.

Prywatne self-hostowanie — zmieniona MIT na produkcji

Uruchom Medium 3.5 na własnych GPU na zasadach zmienionej MIT. Sparuj z ekstraktorem transkrypcji BibiGPT do wrażliwych spotkań korporacyjnych lub treści płatnych kursów — audio i transkrypcje pozostają on-prem, podsumowania nigdy nie opuszczają sieci.

Często zadawane pytania

Zapytaj nas o cokolwiek!

Podsumuj 2-godzinny podcast jednym promptem — z routingiem Mistral Medium 3.5

BibiGPT automatycznie routuje podsumowania długich filmów i podcastów do backendów long-context (w tym Mistral Medium 3.5). Wklej URL z YouTube, Bilibili lub podcastu i otrzymaj pełne podsumowania transkrypcji oraz AI Q&A w 5 językach — bez artefaktów chunkingu, bez utraty odniesień.