Mistral Medium 3.5 × BibiGPT
Mistral AI wypuścił Medium 3.5 dnia 29.04.2026 — model dense o 128 miliardach parametrów z oknem kontekstu 256K tokenów, wydany na zmienionej licencji MIT, która jawnie zezwala na komercyjne wdrożenie. BibiGPT routuje podsumowania długich filmów, Q&A wielu dokumentów i pipeline'y self-hosted przez Mistral 3.5 jako jeden z backendów long-context, obok Claude Opus 4.7 i DeepSeek-V4.
Kluczowe fakty (90 sekund czytania)
Stan na 07.05.2026: Mistral AI wydał Medium 3.5 dnia 29.04.2026 — gęsty model o 128 miliardach parametrów z oknem kontekstu 256K tokenów, na zmienionej licencji MIT, która jawnie zezwala na użytek komercyjny. Self-hosting, odsprzedaż SaaS i osadzanie w produktach płatnych są objęte licencją. Dla użytkowników BibiGPT 256K wystarcza, by zmieścić transkrypcję 2-godzinnego podcastu lub stos wielodokumentowy w jednym promptie — bez chunkingu, bez utraty odniesień.
Features
Co przynosi Mistral Medium 3.5?
Model dense 128B — nie MoE — z oknem kontekstu 256K i zmienioną licencją MIT, która łagodzi komercyjne ograniczenia poprzednich checkpointów Mistral.
Architektura dense 128B
Medium 3.5 to gęsty Transformer o 128 miliardach parametrów. Brak routingu Mixture-of-Experts — wszystkie parametry odpalają na każdy token, co upraszcza fine-tuning i inferencję on-prem w porównaniu z rzadkimi flagowcami MoE.
Okno kontekstu 256K tokenów
Okno kontekstu rośnie do 256 000 tokenów — mniej więcej tyle co transkrypcja podcastu o długości 2,5 h, cała książka techniczna lub stos powiązanych prac badawczych w jednym promptie. Wystarczająco, by uniknąć retrievalu w większości obciążeń BibiGPT.
Zmieniona MIT — odblokowane zastosowanie komercyjne
Mistral zaktualizował licencję do zmienionej MIT, która jawnie zezwala na komercyjne wdrożenie. Self-hosting, odsprzedaż SaaS i osadzanie w produktach płatnych — wszystkie objęte licencją bez osobnej umowy.
Co 256K kontekstu + otwarta licencja oznaczają dla użytkowników BibiGPT
Kluczowa praca BibiGPT to zamiana długich filmów i podcastów w ustrukturyzowane notatki. 256K tokenów wystarcza do podsumowania długich treści end-to-end, a zmieniona MIT odblokowuje wdrożenia self-hosted dla zadań wrażliwych na prywatność.
Pełne podsumowanie transkrypcji
90-minutowy wykład, 2-godzinny podcast lub stos wielodokumentowy mieści się w jednym promptie 256K — bez artefaktów chunkingu, bez utraty odniesień między sekcjami.
Pytania i odpowiedzi przekrojowe w kursie
Połącz transkrypcje wieloodcinkowego kursu lub playlisty YouTube w jeden prompt. Zapytaj „w którym odcinku było X?” i otrzymaj odpowiedź z jednej inferencji — bez indeksu retrievalu, który gubi cytaty między granicami odcinków.
Self-hosting dla treści wrażliwych
Zmieniona MIT pozwala bezpłatnie uruchomić Medium 3.5 na własnych GPU. Wrażliwe spotkania korporacyjne, treści płatnych kursów czy archiwa płatnych podcastów można podsumować on-premise, bez wysyłania audio ani transkrypcji do zewnętrznego API.
5 kluczowych zmian (90 sekund czytania)
Najważniejsze przesunięcia z wydania Mistral Medium 3.5.
- 1
Wydany 29.04.2026
Mistral AI wypuścił Medium 3.5 dnia 29 kwietnia 2026 — premiera w Q2, która wpada w to samo okno co Claude Opus 4.7 i DeepSeek-V4 w grupie flagowców long-context.
- 2
128B dense — nie MoE
Medium 3.5 to gęsty Transformer o 128 miliardach parametrów. Każdy parametr aktywuje się na token, co upraszcza fine-tuning i inferencję on-prem w porównaniu do rzadkich flagowców MoE.
- 3
Okno kontekstu 256K tokenów
Kontekst rozszerza się do 256 000 tokenów — około 200K angielskich słów, cała książka albo transkrypcja 2-godzinnego podcastu od początku do końca. Wystarczająco, by uniknąć retrievalu w większości podsumowań w stylu BibiGPT.
- 4
Zmieniona MIT — odblokowane zastosowanie komercyjne
Mistral zaktualizował licencję do zmienionej MIT, która jawnie zezwala na komercyjne wdrożenie. Self-hosting, odsprzedaż SaaS i osadzanie w produktach płatnych są objęte licencją — bez osobnej umowy z Mistral.
- 5
Dołącza do grupy flagowców long-context
Medium 3.5 staje obok Claude Opus 4.7 (200K, closed) i DeepSeek-V4 (1M, MoE) w warstwie long-context — wybór po postawie licencyjnej, śladzie infra i obciążeniu rozumowaniem, a nie po luce w możliwościach.
3 typowe scenariusze dla użytkowników BibiGPT
Oparte na realnych personach BibiGPT — wszystkie do realizacji już dziś.
Długa transkrypcja wideo — podsumowanie w jednym promptie
Użyj BibiGPT do wyciągnięcia transkrypcji 2-godzinnego podcastu lub wykładu, a krok podsumowania zruszuj na Mistral Medium 3.5. Pełna transkrypcja mieści się w 256K kontekście, więc podsumowanie zachowuje odniesienia przekrojowe, bez sklejania podsumowań chunków.
Wyszukiwanie wielodokumentowe — cały stos na wejście
Połącz wyciągnięte przez BibiGPT transkrypcje wieloodcinkowego kursu lub powiązanych prac badawczych. Z 256K marginesu zapytaj „który odcinek wspominał o X?” i odpowiedź pada od razu, bez zewnętrznej warstwy retrievalu, która gubi cytaty między granicami odcinków.
Prywatne self-hostowanie — zmieniona MIT na produkcji
Uruchom Medium 3.5 na własnych GPU na zasadach zmienionej MIT. Sparuj z ekstraktorem transkrypcji BibiGPT do wrażliwych spotkań korporacyjnych lub treści płatnych kursów — audio i transkrypcje pozostają on-prem, podsumowania nigdy nie opuszczają sieci.
FAQ
Często zadawane pytania
Zapytaj nas o cokolwiek!
Podsumuj 2-godzinny podcast jednym promptem — z routingiem Mistral Medium 3.5
BibiGPT automatycznie routuje podsumowania długich filmów i podcastów do backendów long-context (w tym Mistral Medium 3.5). Wklej URL z YouTube, Bilibili lub podcastu i otrzymaj pełne podsumowania transkrypcji oraz AI Q&A w 5 językach — bez artefaktów chunkingu, bez utraty odniesień.