Mistral Medium 3.5 × BibiGPT

Mistral AI hat Medium 3.5 am 29.04.2026 ausgeliefert — ein 128B-Parameter-Dense-Modell mit 256K Token Kontextfenster, freigegeben unter überarbeiteter MIT-Lizenz, die kommerzielle Bereitstellung ausdrücklich gestattet. BibiGPT routet Langvideo-Zusammenfassungen, Mehrdokument-Q&A und Self-Host-Pipelines über Mistral 3.5 als eines der Long-Context-Backends, neben Claude Opus 4.7 und DeepSeek-V4.

Veröffentlicht · 29.04.2026 128B dense · 256K Kontext Überarbeitete MIT-Lizenz

Kernfakten (90-Sekunden-Lesen)

Stand 07.05.2026: Mistral AI hat Medium 3.5 am 29.04.2026 veröffentlicht — ein dichtes 128B-Parameter-Modell mit 256K Token Kontextfenster unter überarbeiteter MIT-Lizenz, die kommerzielle Nutzung ausdrücklich erlaubt. Self-Hosting, SaaS-Resale und Einbettung in Bezahlprodukte sind alle abgedeckt. Für BibiGPT-Nutzer reichen 256K aus, um ein 2-stündiges Podcast-Transkript oder einen Mehrdokument-Recherchestapel in einen einzigen Prompt zu packen — kein Chunking, keine verlorenen Querverweise.

Features

Was bringt Mistral Medium 3.5?

128B Dense-Modell — kein MoE — mit 256K Kontextfenster und überarbeiteter MIT-Lizenz, die die kommerziellen Beschränkungen früherer Mistral-Checkpoints lockert.

128B Dense-Architektur

Medium 3.5 ist ein dichter Transformer mit 128 Milliarden Parametern. Kein Mixture-of-Experts-Routing — alle Parameter feuern pro Token, was Fine-Tuning und On-Prem-Inferenz gegenüber sparsen MoE-Flaggschiffen vereinfacht.

256K Token Kontextfenster

Das Kontextfenster erweitert sich auf 256.000 Token — etwa eine 2,5-stündige Podcast-Transkription, ein vollständiges Fachbuch oder ein Stapel verwandter Forschungsarbeiten in einem Prompt. Genug Spielraum, um bei den meisten BibiGPT-Workloads ohne Retrieval auszukommen.

Überarbeitete MIT — kommerzielle Nutzung freigeschaltet

Mistral hat die Lizenz auf eine überarbeitete MIT umgestellt, die kommerzielle Bereitstellung ausdrücklich erlaubt. Self-Hosting, SaaS-Resale und Einbettung in Bezahlprodukte sind alle ohne separaten Vertrag von der Lizenz abgedeckt.

Was 256K Kontext + offene Lizenz für BibiGPT-Nutzer bedeuten

BibiGPTs Kernaufgabe ist es, stundenlange Videos und Podcasts in strukturierte Notizen zu verwandeln. 256K Token reichen für eine End-to-End-Zusammenfassung langer Inhalte, und die überarbeitete MIT-Lizenz öffnet datenschutzkritische Self-Host-Szenarien.

Vollständige Transkriptzusammenfassung

Eine 90-minütige Vorlesung, ein 2-Stunden-Podcast oder ein Mehrdokument-Recherchestapel passt in einen einzigen 256K-Prompt — keine Chunking-Artefakte, keine verlorenen Querverweise zwischen Abschnitten.

Episodenübergreifende Q&A

Verkette Transkripte mehrerer Kursfolgen oder einer YouTube-Playlist in einem Prompt. Frage „in welcher Episode kam X vor?“ und erhalte die Antwort aus einer einzigen Inferenz — kein Retrieval-Index, der Querverweise zwischen Episodengrenzen verliert.

Self-Hosting für sensible Inhalte

Die überarbeitete MIT erlaubt den kostenlosen Betrieb von Medium 3.5 auf eigenen GPUs. Sensible Firmenmeetings, kostenpflichtige Kursinhalte oder bezahlte Podcast-Archive können on-premise zusammengefasst werden, ohne Audio oder Transkripte an eine Drittanbieter-API zu senden.

5 wichtige Änderungen (90-Sekunden-Lesen)

Wichtigste Verschiebungen aus dem Mistral-Medium-3.5-Release.

  1. 1

    Veröffentlicht am 29.04.2026

    Mistral AI hat Medium 3.5 am 29. April 2026 ausgeliefert — eine Q2-Veröffentlichung, die in dasselbe Long-Context-Flaggschiff-Fenster wie Claude Opus 4.7 und DeepSeek-V4 fällt.

  2. 2

    128B dense — kein MoE

    Medium 3.5 ist ein dichter Transformer mit 128 Milliarden Parametern. Jeder Parameter feuert pro Token, was Fine-Tuning und On-Prem-Inferenz im Vergleich zu sparsen MoE-Flaggschiffen vereinfacht.

  3. 3

    256K Token Kontextfenster

    Das Kontextfenster wächst auf 256.000 Tokens — rund 200K englische Wörter, ein ganzes Buch oder ein 2-stündiges Podcast-Transkript am Stück. Genug Headroom, um Retrieval bei den meisten BibiGPT-Workflows zu sparen.

  4. 4

    Überarbeitete MIT — kommerzielle Nutzung freigeschaltet

    Mistral hat die Lizenz auf eine überarbeitete MIT umgestellt, die kommerzielle Bereitstellung ausdrücklich erlaubt. Self-Hosting, SaaS-Resale und Einbettung in Bezahlprodukte sind alle abgedeckt — kein separater Mistral-Vertrag nötig.

  5. 5

    Tritt der Long-Context-Flaggschiff-Riege bei

    Medium 3.5 steht neben Claude Opus 4.7 (200K, Closed) und DeepSeek-V4 (1M, MoE) in der Long-Context-Riege — die Wahl trifft man nach Lizenzposition, Infrastrukturaufwand und Reasoning-Workload, nicht nach Fähigkeitslücken.

3 typische Szenarien für BibiGPT-Nutzer

Basierend auf realen BibiGPT-Personas — alle heute umsetzbar.

Langes Videotranskript — Zusammenfassung in einem Prompt

Nutze BibiGPT, um ein Transkript eines 2-stündigen Podcasts oder einer Vorlesung zu extrahieren, und route den Zusammenfassungsschritt durch Mistral Medium 3.5. Das vollständige Transkript passt in den 256K-Kontext, sodass Querverweise zwischen Abschnitten erhalten bleiben — kein Zusammenflicken von Chunk-Zusammenfassungen.

Mehrdokument-Cross-Search — den ganzen Stapel reinwerfen

Verkette von BibiGPT extrahierte Transkripte einer mehrteiligen Kursreihe oder verwandter Forschungsarbeiten. Mit 256K Spielraum lässt sich die Frage „welche Episode hat X erwähnt?“ direkt beantworten — ohne externe Retrieval-Schicht, die Querverweise zwischen Episodengrenzen verliert.

Self-Hosting für Datenschutz — überarbeitete MIT in Produktion

Betreibe Medium 3.5 auf eigenen GPUs unter den überarbeiteten MIT-Bedingungen. Kombiniert mit BibiGPTs Transkript-Extraktor für sensible Firmenmeetings oder kostenpflichtige Kursinhalte — Audio und Transkripte verlassen das Netzwerk nicht, Zusammenfassungen werden lokal erstellt.

Häufig gestellte Fragen

Fragen Sie uns!

Fasse einen 2-Stunden-Podcast in einem Prompt zusammen — Mistral Medium 3.5 Routing inklusive

BibiGPT routet Langvideo- und Podcast-Zusammenfassungen automatisch über Long-Context-Backends (inklusive Mistral Medium 3.5). Füge eine YouTube-, Bilibili- oder Podcast-URL ein und erhalte vollständige Transkriptzusammenfassungen plus AI-Q&A in 5 Sprachen — ohne Chunking-Artefakte, ohne verlorene Querverweise.