Mistral Medium 3.5 × BibiGPT
Mistral AI は 2026-04-29 に Medium 3.5 を出荷——128B パラメータの dense モデル、256K トークンのコンテキストウィンドウ、改訂 MIT ライセンスで商用デプロイを明示的に許可。BibiGPT は長尺動画要約、多文書 Q&A、セルフホストパイプラインを Mistral 3.5 経由でルーティング。Claude Opus 4.7、DeepSeek-V4 と並ぶ長コンテキストバックエンドの一つ。
重要ポイント(90 秒で読む)
2026-05-07 時点:Mistral AI が 2026-04-29 に Medium 3.5 をリリース——1280 億パラメータの dense モデル、256K トークンのコンテキストウィンドウ、商用利用を明示的に許可する改訂 MIT ライセンス。セルフホスト、SaaS 再販、有償プロダクト組込みは全てライセンス内。BibiGPT ユーザにとって 256K は 2 時間のポッドキャスト書き起こしや多文書リサーチを 1 プロンプトに収めるのに十分——分割なし、章間参照のロスなし。
Features
Mistral Medium 3.5 で何が変わる?
128B dense モデル——MoE ではない、256K コンテキストウィンドウ、過去の Mistral チェックポイントの商用制限を緩和した改訂 MIT ライセンス。
128B dense アーキテクチャ
Medium 3.5 は 1280 億パラメータの dense Transformer で、MoE ルーティングは無し。トークンごとに全パラメータが起動するため、ファインチューニングとオンプレ推論が疎な MoE 旗艦より簡素。
256K トークン コンテキスト
コンテキストが 256,000 トークンに拡張——おおよそ 2.5 時間のポッドキャスト書き起こし、技術書一冊分、関連論文の束を 1 プロンプトで取り回せる。BibiGPT 系の要約用途では検索なしで完結することが多い。
改訂 MIT——商用解禁
Mistral がライセンスを改訂 MIT に更新し、商用デプロイを明示的に許可。セルフホスト、SaaS 再販、有償プロダクト組込みは別途商用契約なしで全て利用可。
256K コンテキスト + オープンライセンスが BibiGPT ユーザーにもたらすもの
BibiGPT のコアは長尺動画/ポッドキャストを構造化ノートに変えること。256K あれば長尺の端から端までを一度に要約でき、改訂 MIT はプライバシ重視のセルフホストを解禁する。
全文書き起こし要約
90 分の講義、2 時間のポッドキャスト、多文書のリサーチを 1 つの 256K プロンプトで処理——分割アーティファクトなし、章をまたいだ参照も失われない。
コース横断 Q&A
複数エピソードのコース/YouTube プレイリストの書き起こしを 1 プロンプトに連結。「どのエピソードで X が出た?」を 1 推論で返せる。エピソード境界で取りこぼす検索インデックス不要。
プライバシ重視のセルフホスト
改訂 MIT で自社 GPU 上の無償運用が可能。社内会議や有料コースなど機密性の高いコンテンツを社外 API に渡さず要約できる。
重要 5 ポイント(90 秒で読む)
Mistral Medium 3.5 リリースの主要な変化。
- 1
2026-04-29 リリース
Mistral AI が 2026 年 4 月 29 日に Medium 3.5 を投入——Q2 のリリースで、Claude Opus 4.7 や DeepSeek-V4 と同じ長コンテキスト旗艦群に加わる。
- 2
128B dense——MoE ではない
Medium 3.5 は 1280 億パラメータの dense Transformer。トークンごとに全パラメータが起動するため、疎な MoE 旗艦よりファインチューニングとオンプレ推論の経路がシンプル。
- 3
256K トークン コンテキスト
コンテキストが 256,000 トークンに——英文約 20 万語、一冊分の書籍、または 2 時間のポッドキャスト書き起こしを端から端まで。BibiGPT 系の要約は分割検索なしで完結することが多い。
- 4
改訂 MIT——商用解禁
Mistral がライセンスを改訂 MIT に更新し、商用デプロイを明示的に許可。セルフホスト、SaaS 再販、有償プロダクト組込みは全てライセンス内、Mistral との別契約は不要。
- 5
長コンテキスト旗艦群に合流
Medium 3.5 は Claude Opus 4.7(200K、クローズド)、DeepSeek-V4(1M、MoE)と並ぶ長コンテキスト層——ライセンスの姿勢、インフラ規模、推論負荷で選ぶ、能力差ではない。
BibiGPT ユーザの典型ユースケース 3 つ
実在する BibiGPT のユーザペルソナに基づき、すべて今日から実行可能。
長尺動画書き起こし——1 プロンプトで要約
BibiGPT で 2 時間のポッドキャストや講義の書き起こしを抽出し、要約段だけ Mistral Medium 3.5 にルーティング。書き起こし全文が 256K に収まるため、章をまたぐ参照を保ったまま要約され、分割サマリの再結合が不要。
多文書クロス検索——束ごと投入
BibiGPT が抽出した複数エピソードのコース書き起こしや関連論文を 1 つに連結。256K の余裕で「どのエピソードで X?」が直接答えられ、エピソード境界で引用を落とす外部検索層が不要に。
プライバシ重視のセルフホスト——改訂 MIT で本番投入
自社 GPU 上で改訂 MIT に従い Medium 3.5 を運用、前段に BibiGPT の書き起こし抽出。社内機密会議や有料コースの音声と書き起こしが社外に出ず、要約処理を社内ネットワークで完結。
よくある質問
よくある質問
ご質問はありますか?お気軽にどうぞ!
2 時間ポッドキャストを 1 プロンプトで要約——Mistral Medium 3.5 ルーティング込み
BibiGPT は長尺動画/ポッドキャスト要約を長コンテキストバックエンド(Mistral Medium 3.5 含む)へ自動ルーティング。YouTube/Bilibili/ポッドキャストの URL を貼るだけで、全文書き起こし要約と 5 言語 AI Q&A を入手——分割アーティファクトなし、章間参照のロスなし。