OpenAI、待望のオープンソースモデル「GPT OSS」をリリース
OpenAIが、オープンウェイト(重みを公開)のモデルファミリー「GPT OSS」を公開した。Hugging Faceのブログで発表されたこのリリースは、OpenAIがオープンソースエコシステムへ本格参入するという観点から、AI業界で大きな注目を集めている。
2種類のモデル構成
GPT OSSは以下の2モデルで構成される。
- gpt-oss-120b:総パラメータ数117B(約1,170億)、アクティブパラメータ5.1B
- gpt-oss-20b:総パラメータ数21B(約210億)、アクティブパラメータ3.6B
どちらも混合エキスパート(Mixture-of-Experts、MoE)アーキテクチャを採用しており、推論時に全パラメータを使用しないため、計算効率が高い。さらにMXFP4形式の4ビット量子化を適用することで、メモリ使用量を大幅に削減している。
大型モデルのgpt-oss-120bはNVIDIA H100(80GB VRAM)1枚に収まり、小型のgpt-oss-20bは16GBのメモリで動作する。これはコンシューマー向けGPUや、エッジ・オンデバイスでの活用を強く意識した設計だ。日本国内でも手元のGPUサーバーや開発用PCで動かせる可能性が広がる。
アーキテクチャの特徴
- Token-choice MoEにSwiGLU活性化関数を組み合わせた構造
- 各アテンション層にRoPE(回転位置エンコーディング)を採用、コンテキスト長は128K
- フルコンテキストとスライディングウィンドウ(128トークン)のアテンション層を交互に配置
- GPT-4oと同じトークナイザーを使用(Responses API互換の新トークンも追加)
- 推論能力(Chain-of-Thought)と推論努力レベルの調整に対応
Apache 2.0ライセンスと利用ポリシー
ライセンスはApache 2.0を採用しており、商用利用・改変・再配布が原則として自由に行える。付随する利用ポリシーは「適用法規の遵守」を求めるにとどまり、Meta LlamaシリーズのようなユーザーカウントによるTierや、Mistralの各種制限と比べてもシンプルな内容となっている。
OpenAIは「AIの恩恵を広く利用可能にする」というミッションに沿ったリリースと位置づけており、プライベートデプロイや社内ローカル環境での活用ニーズに応える狙いがある。
推論・ファインチューニング環境
主要な推論フレームワークはすでに対応済みだ。
- transformers(Hugging Face)
- vLLM
- llama.cpp
- ollama
Hugging FaceのInference Providers経由でAPIアクセスも可能で、CerebrasなどのプロバイダーをPython・JavaScriptから利用できる。また、Azure・DellなどのパートナーへのデプロイメントもHugging Faceプラットフォーム上でサポートされている。
オープンソースAIの競争激化
Meta(Llama)、Mistral AI、Google(Gemma)などが先行するオープンソースモデル市場にOpenAIが参入したことで、競争はさらに活発化する見込みだ。特にApache 2.0という最も制約の少ないライセンスを選択した点は、企業・研究機関の双方にとって利用しやすい環境を整えるという強いメッセージとなっている。
モデルは現在Hugging Face Hub上で公開されており、すぐに試せる状態にある。