はじめに
この記事ではOpenAIのGPTシリーズや、AnthropicのClaudeシリーズ、GoogleのGeminiシリーズなどの主要モデルについて比較表にまとめています。
提供団体
各モデルの提供団体は以下の通りです。
団体 | モデル | 設立 | 国 | 備考 |
---|---|---|---|---|
OpenAI | GPT | 2015年12月11日 | 米国 | GPTは「Generative Pre-trained Transformer」の略。2017年にGoogleが発表したLLM「Transformer」がベース。事前に大量のデータで訓練されたLLMを示す。 |
Anthropic | Claude | 2021年ごろ | 米国 | Claudeはフランス語圏に多い名前。 数学者クロード・シャノン(Claude Shannon)など |
Gemini | 1998年9月4日 | 米国 | Geminiはラテン語で双子座を意味する。Google社内の2つの研究チームが合併したこと、Geminiの共同技術責任者がLLM開発はロケットを打ち上げる精神と同じと共鳴したことが由来。 | |
Meta | Llama | 2004年2月4日 | 米国 | Large Language Model Meta AI |
料金
モデル名 | バージョン | 提供状態 | 入力料金[/1Mトークン] | 出力料金[/1Mトークン] | 備考 |
---|---|---|---|---|---|
GPT-4o-mini | gpt-4o-mini-2024-07-18 | GA | 0.150 | 0.600 | |
GPT-4o | gpt-4o-2024-11-20 | GA | 2.500 | 10.000 | |
GPT-4.1 | gpt-4.1-2025-04-14 | GA | 2.000 | 8.000 | |
GPT-4.1-mini | gpt-4.1-mini-2025-04-14 | GA | 0.400 | 1.600 | |
GPT-4.1-nano | gpt-4.1-nano-2025-04-14 | GA | 0.100 | 0.400 | |
GPT-5 | gpt-5-2025-08-07 | GA | 1.250 | 2.000 | |
GPT-5-mini | gpt-5-mini-2025-08-07 | GA | 0.025 | 2.000 | |
GPT-5-nano | gpt-5-nano-2025-08-07 | GA | 0.005 | 0.400 | |
GPT-5-chat | gpt-5-chat-latest | GA | 1.250 | 10.000 | |
o3 | o3-2025-04-16 | GA | 2.000 | 8.000 | |
o3-pro | o3-pro-2025-06-10 | GA | 20.000 | 80.000 | |
o3-mini | o3-mini-2025-04-16 | GA | 1.100 | 4.400 | |
o4-mini | o4-mini-2025-04-16 | GA | 1.100 | 4.400 | |
Claude Sonnet 4 | Anthropic: claude-sonnet-4-20250514 AWS: anthropic.claude-sonnet-4-20250514-v1:0 Google Cloud: claude-sonnet-4@20250514 | GA | 3.000 | 15.000 | |
Claude Opus 4 | Anthropic: claude-opus-4-20250514 AWS: anthropic.claude-opus-4-20250514-v1:0 Google Cloud: claude-opus-4@20250514 | GA | 15.000 | 75.000 | |
Claude Opus 4.1 | Anthropic: claude-opus-4-1-20250805 AWS: anthropic.claude-opus-4-1-20250805-v1:0 Google Cloud: claude-opus-4-1@20250805 | GA | 15.000 | 75.000 | |
Gemini 2.5 Pro | gemini-2.5-pro | GA | 1.250 | 10.000 | 入力トークン > 20 万トークンの場合 - 入力料金: $2.5 - 出力料金: $15 |
Gemini 2.5 Flash | gemini-2.5-flash | GA | 0.300 | 2.500 | |
Gemini 2.5 Flash-Lite | gemini-2.5-flash-lite | GA | 0.100 | 0.400 |
機能要件
プラットフォーム | 入力 | 出力 | 機能 | |||||||||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
モデル名 | Azure | AWS | Google Cloud | テキスト | 画像 | 音声 | 動画 | テキスト | 画像 | 音声 | 日本語対応 | Thinking | Streaming | Fuction Calling | Structured outputs | |
GPT-4o | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | ||||||||
GPT-4o-mini | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | ||||||||
GPT-4.1 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | |||||||
GPT-4.1-mini | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | |||||||
GPT-4.1-nano | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | |||||||
GPT-5 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | |||||||
GPT-5-mini | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | |||||||
GPT-5-nano | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | |||||||
GPT-5-chat | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | ||||||||
o3 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | |||||||
o3-pro | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | |||||||
o3-mini | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | |||||||
o4-mini | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | |||||||
Claude Sonnet 4 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | ||||||
Claude Opus 4 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | ||||||
Claude Opus 4.1 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | ||||||
Gemini 2.5 Pro | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | ||||
Gemini 2.5 Flash | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | |||||
Gemini 2.5 Flash-Lite | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 |
API仕様
モデル名 | role | メッセージ並び | 空文字入力 | 複数画像 | 画像ファイル種類 | 画像ファイルサイズ | 画像アップロード形式 |
---|---|---|---|---|---|---|---|
OpenAIシリーズ | system(developer), user, assistant | 指定なし | OK | ◯ | PNG, JPEG, WEBP, GIF | 20 MB | Base64変換, URL |
Anthropicシリーズ | system, user, assistant | user→assistant | NG | ◯ | PNG, JPEG, WEBP, GIF | 5 MB | Base64変換, URL |
Google Geminiシリーズ | user, model | 指定なし | NG | ◯ | PNG, JPEG, WEBP, HEIC, HEIF | 2 GB | File API or バイナリファイル |
Meta Llamaシリーズ | system, user, assistant | image_url→text | NG | ✕ | - | - | - |
メッセージの並び
- Anthropic Claude: 会話メッセージのroleの並びがuser → assistant順になる必要がある
- Meta Llama: 先行しない画像入力(non-leading vision input)ができないため、メッセージ内でtypeの並びがimage_url → textの順になる必要がある
{
"role": "user",
"content": [
{"type": "image_url", "image_url": "https://test.com/img/test.png"},
{"type": "text", "text": "hogehoge"}
]
}
空文字入力
- Meta Llama: システムメッセージを空文字にすることができない(system message to be non-empty)
- Anthropic Claude: 空文字の送信ができない: all messages must have non-empty content except for the optional final assistant message)
複数画像
- Meta Llama: 一度に複数の画像ファイルをリクエストすることができない( Unable to submit request because it has 2 image files but the model only suppor)
画像サイズ
- Anthropic Claude: 画像の最大許容サイズ(8000ピクセル)At least one of the image dimensions exceed max allowed size: 8000 pixels
非機能要件
モデル名 | コンテキストウィンドウ | 最大トークン出力 | 1 分当たりのトークン数 (TPM) | ナレッジカットオフ |
---|---|---|---|---|
GPT-4o | 128,000 | 16,384 | Enterprise and MCA-E: 30MDefault: 450K | 2023年10月01日 |
GPT-4o-mini | 128,000 | 16,384 | Enterprise and MCA-E: 50MDefault: 2M | 2023年10月01日 |
GPT-4.1 | 1,047,576 | 32,768 | Enterprise and MCA-E: 5MDefault: 1M | 2024年06月01日 |
GPT-4.1-mini | 1,047,576 | 32,768 | Enterprise and MCA-E: 150MDefault: 5M | 2024年06月01日 |
GPT-4.1-nano | 1,047,576 | 32,768 | Enterprise and MCA-E: 150MDefault: 5M | 2024年06月01日 |
GPT-5 | 272,000 | 128,000 | Enterprise and MCA-E: 10MDefault: 1M | 2024年10月01日 |
GPT-5-mini | 272,000 | 128,000 | Enterprise and MCA-E: 10MDefault: 1M | 2024年05月31日 |
GPT-5-nano | 272,000 | 128,000 | Enterprise and MCA-E: 150MDefault: 5M | 2024年05月31日 |
GPT-5-chat | 128,000 | 16,384 | Enterprise and MCA-E: 5MDefault: 1M | 2024年09月30日 |
o3 | 200,000 | 100,000 | Enterprise and MCA-E: 10MDefault: 1M | 2024年06月01日 |
o3-pro | 200,000 | 100,000 | Enterprise and MCA-E: 16MDefault: 1.6M | 2024年06月01日 |
o3-mini | 200,000 | 100,000 | Enterprise and MCA-E: 16MDefault: 1.6M | 2023年10月01日 |
o4-mini | 200,000 | 100,000 | Enterprise and MCA-E: 10MDefault: 1M | 2024年06月01日 |
Claude Sonnet 4 | 200,000 | 64,000 | ※AWS Bedrock, Veterx AIのプロジェクトの設定による | 2025年03月 |
Claude Opus 4 | 200,000 | 32,000 | ※AWS Bedrock, Veterx AIのプロジェクトの設定による | 2025年03月 |
Claude Opus 4.1 | 200,000 | 32,000 | ※AWS Bedrock, Veterx AIのプロジェクトの設定による | 2025年03月 |
Gemini 2.5 Pro | 1,048,576 | 65,536 | ※Veterx AIのプロジェクトの設定による | 2025年01月 |
Gemini 2.5 Flash | 1,048,576 | 65,536 | ※Veterx AIのプロジェクトの設定による | 2025年01月 |
Gemini 2.5 Flash-Lite | 1,048,576 | 65,536 | ※Veterx AIのプロジェクトの設定による | 2025年01月 |
※ OpenAIモデルのTPMはAzureに準拠した値を設定
参考
料金
OpenAI系モデル
Anthropic系モデル
- Anthropic公式ドキュメント: Anthropic APIの料金
- AWS公式ドキュメント: AWS Bedrockの料金
- Google Cloud公式ドキュメント: Google Cloud Vertex AIの料金
Google系モデル
Meta系モデル
クォーター制限(TPMなど)
OpenAI系モデル
Anthropic系モデル
- Anthropic公式ドキュメント: Anthropic APIのクォータ制限
- ※AWS Bedrock, Veterx AIの場合はプロジェクトの設定による
- AWS公式ドキュメント: AWS Bedrockクォーター制限
- Google Cloud Console: クォーター制限
- 以下の項目から確認が可能。割り当てられてるクォーターはプロジェクトによる
- Online prediction input tokens per minute per base model per minute per region per base_model → Regionごとのベースモデル別オンライン予測入力トークン数(分あたり)
- Online prediction output tokens per minute per base model per minute per region per base_model → Regionごとのベースモデル別オンライン予測出力トークン数(分あたり)
- Global online prediction input tokens per minute per base model per minute per base_model → Globalのベースモデル別オンライン予測入力トークン数(分あたり)
- Global online prediction output tokens per minute per base model per minute per base_model → Globalのベースモデル別オンライン予測出力トークン数(分あたり)
- Google Cloud公式ドキュメント: Vertex AI クォータ制限
Google系モデル
- Google Cloud Console: クォーター制限
- 以下の項目から確認が可能。割り当てられてるクォーターはプロジェクトによる
- Online prediction input tokens per minute per base model per minute per region per base_model → Regionごとのベースモデル別オンライン予測入力トークン数(分あたり)
- Online prediction output tokens per minute per base model per minute per region per base_model → Regionごとのベースモデル別オンライン予測出力トークン数(分あたり)
- Global online prediction input tokens per minute per base model per minute per base_model → Globalのベースモデル別オンライン予測入力トークン数(分あたり)
- Global online prediction output tokens per minute per base model per minute per base_model → Globalのベースモデル別オンライン予測出力トークン数(分あたり)
- Google公式ドキュメント: Gemini API クォータ制限
- Google Cloud公式ドキュメント: Gemini for Google Cloud クォータ制限
- Google Cloud公式ドキュメント: Vertex AI クォータ制限
入出力トークン数(Context Window, Max Tokens)
OpenAI系モデル
- OpenAI公式ドキュメント: モデル一覧
- Azure公式ドキュメント: モデル一覧 ※各モデルの紹介ページ移動後、Context Windowおよび、Max Tokensから確認可能
Anthropic系モデル
-
Anthropic公式ドキュメント: モデル一覧 ※各モデルの紹介ページ移動後、Context Windowおよび、Max Tokensから確認可能
-
AWS公式ドキュメント: AWS BedrockのAnthropicモデル一覧 ※各モデルの紹介ページ移動後、Context Windowおよび、Max Tokensから確認可能
-
Google Cloud公式ドキュメント: モデルガーデン ※各モデルの紹介ページ移動後、Max TokensのInputとOutputから確認可能
Google系モデル
-
Google Cloud公式ドキュメント: Googleモデル一覧 ※各モデルの紹介ページ移動後、Max input tokens, Max output tokensから確認可能
-
Google公式ドキュメント: Gemini モデル一覧 ※各モデルの紹介ページ移動後、Input token limit, Output token limitから確認可能
Meta系モデル
-
Hugging Face公式ドキュメント: Meta Llamaモデル一覧 ※各モデルの紹介ページ移動後、Context Lengthから確認可能
-
Meta公式ドキュメント: モデル比較表 ※プルダウンメニューで対象モデルを選択後、Input Context Windowまたは、Maximun Output Tokensから確認可能
ナレッジカットオフ
OpenAI系モデル
-
OpenAI公式ドキュメント: モデル一覧 ※各モデルの紹介ページ移動後、Knowledge cutoffから確認可能
-
Azure公式ドキュメント: モデル一覧 ※各モデルの紹介ページ移動後、Training Dataから確認可能
Anthropic系モデル
- Anthropic公式ドキュメント: モデル一覧 ※Training data cut-offから確認可能
Google系モデル
- Google Cloud公式ドキュメント: Googleモデル一覧 ※各モデルの紹介ページ移動後、Training dataから確認可能
Meta系モデル
- Hugging Face公式ドキュメント: Meta Llamaモデル一覧
- Google Cloud公式ドキュメント: モデルガーデン ※各モデルの紹介ページ移動後、Knowledge cutoffから確認可能
サポートリージョン
OpenAI系モデル
- Azure公式ドキュメント: モデル一覧 ※Model summary table and region availabilityから確認可能
Anthropic系モデル
-
- 以下の項目から確認が可能。Regionからサポートリージョンが分かる
- Online prediction input tokens per minute per base model per minute per region per base_model → Regionごとのベースモデル別オンライン予測入力トークン数(分あたり)
- Online prediction output tokens per minute per base model per minute per region per base_model → Regionごとのベースモデル別オンライン予測出力トークン数(分あたり)
- Global online prediction input tokens per minute per base model per minute per base_model → Globalのベースモデル別オンライン予測入力トークン数(分あたり)
- Global online prediction output tokens per minute per base model per minute per base_model → Globalのベースモデル別オンライン予測出力トークン数(分あたり)
Google系モデル
Meta系モデル
マルチモーダル
OpenAIモデル
- Azure公式ドキュメント: GPT-4 Turbo with Vision の概念
- 最大入力画像サイズ: 入力画像の最大サイズは 20 MB
Anthropicモデル
-
AWS公式ドキュメント: AWS Bedrock Anthropic Claude Messages API
- リクエストボディのmdeia_typeの説明欄にサポート対象の画像ファイルの種類の記載あり
- リクエストボディのdataの説明欄に画像ファイルサイズの上限値の記載あり
-
Anthropic公式ドキュメント: Visionの仕様 - F&Qに画像ファイルサイズの上限値の記載あり
Google系モデル
Meta系モデル
Model ID
OpenAI系モデル
Anthropic系モデル
Google系モデル
Meta系モデル
APIリファレンス
OpenAI系モデル
Anthropic系モデル
Google系モデル
Meta系モデル
リリースノート
OpenAI系モデル
- OpenAI公式ドキュメント: OpenAI リリースノート
- OpenAI Pythonパッケージリリースノート
- Azure公式ドキュメント: Azure OpenAI リリースノート
- Azure公式ドキュメント: Azure OpenAI リリースノート(Github)
- Azure OpenAI API Previewバージョン
- Azure OpenAI APIバージョン
Anthropic系モデル
- Anthropic公式ドキュメント: Claude API リリースノート
- Anthropic公式ドキュメント: Claudeアプリ リリースノート
- Anthropic公式ドキュメント: APIバージョン一覧
- AWS公式ドキュメント: AWS Bedrockリリースノート
- Google Cloud公式ドキュメント: Vertex AIリリースノート
Google系モデル
- Google Cloud公式ドキュメント: Gemini APIリリースノート
- Google Cloud公式ドキュメント: Gemini APIバージョン一覧
- Google Cloud公式ドキュメント: Vertex AIリリースノート
おわりに
この記事では、主要LLMについて、比較しました。
この記事がAIを学習されている方の参考になれば、幸いです。