はじめに
この記事ではOpenAIのGPTシリーズや、AnthropicのClaudeシリーズ、GoogleのGeminiシリーズなどの主要モデルについて比較表にまとめています。
免責事項: 本記事の料金や仕様は公開時点の情報であり、変更される可能性があります。最新情報については各サービスの公式ドキュメントをご確認ください。
提供プロパイダー
各モデルの提供団体は以下の通りです。
| プロパイダー | モデル | 設立 | 国 | 備考 |
|---|---|---|---|---|
| OpenAI | GPT | 2015年12月11日 | 米国 | GPTは「Generative Pre-trained Transformer」の略。2017年にGoogleが発表したLLM「Transformer」がベース。事前に大量のデータで訓練されたLLMを示す。 |
| Anthropic | Claude | 2021年ごろ | 米国 | Claudeはフランス語圏に多い名前。 数学者クロード・シャノン(Claude Shannon)など |
| Gemini | 1998年9月4日 | 米国 | Geminiはラテン語で双子座を意味する。Google社内の2つの研究チームが合併したこと、Geminiの共同技術責任者がLLM開発はロケットを打ち上げる精神と同じと共鳴したことが由来。 | |
| Meta | Llama | 2004年2月4日 | 米国 | Large Language Model Meta AI |
料金
以下のリンクから各LLMの料金をまとめたExcelを表示できます。
注記:
- 最新の料金情報は各公式ドキュメントでご確認ください
料金参考リンク
OpenAI系モデル
Anthropic系モデル
- Anthropic公式ドキュメント: Anthropic APIの料金
- AWS公式ドキュメント: AWS Bedrockの料金
- Google Cloud公式ドキュメント: Google Cloud Vertex AIの料金
Google系モデル
Meta系モデル
Model ID参考リンク
OpenAI系モデル
Anthropic系モデル
Google系モデル
Meta系モデル
機能要件
| プラットフォーム | 入力 | 出力 | 機能 | |||||||||||||
|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
| モデル名 | Azure | AWS | Google Cloud | テキスト | 画像 | 音声 | 動画 | テキスト | 画像 | 音声 | 日本語対応 | Thinking | Streaming | Fuction Calling | Structured outputs | |
| GPT-4o | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | ||||||||
| GPT-4o-mini | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | ||||||||
| GPT-4.1 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | |||||||
| Raptor mini (Preview) | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | |||||||
| GPT-4.1-mini | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | |||||||
| GPT-4.1-nano | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | |||||||
| GPT-5.1 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | |||||||
| GPT-5.1-chat | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | |||||||||
| GPT-5-mini | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | |||||||
| GPT-5-nano | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | |||||||
| o3 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | |||||||
| o3-pro | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | |||||||
| o3-mini | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | |||||||
| o4-mini | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | |||||||
| Claude Sonnet 4.5 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | ||||||
| Claude Haiku 4.5 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | ||||||
| Claude Opus 4.5 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | ||||||
| Gemini 3.0 Pro | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | ||||
| Gemini 2.5 Pro | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | ||||
| Gemini 2.5 Flash | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | |||||
| Gemini 2.5 Flash-Lite | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 | 〇 |
API仕様
| モデル名 | role | メッセージ並び | 空文字入力 | 複数画像 | 画像ファイル種類 | 画像ファイルサイズ | 画像アップロード形式 |
|---|---|---|---|---|---|---|---|
| OpenAIシリーズ | system(developer), user, assistant | 指定なし | OK | ◯ | PNG, JPEG, WEBP, GIF | 20 MB | Base64変換, URL |
| Anthropicシリーズ | system, user, assistant | user→assistant | NG | ◯ | PNG, JPEG, WEBP, GIF | 5 MB | Base64変換, URL |
| Google Geminiシリーズ | user, model | 指定なし | NG | ◯ | PNG, JPEG, WEBP, HEIC, HEIF | 2 GB | File API or バイナリファイル |
| Meta Llamaシリーズ | system, user, assistant | image_url→text | NG | ✕ | - | - | - |
メッセージの並び
- Anthropic Claude: 会話メッセージのroleの並びがuser → assistant順になる必要がある
- Meta Llama: 先行しない画像入力(non-leading vision input)ができないため、メッセージ内でtypeの並びがimage_url → textの順になる必要がある
{
"role": "user",
"content": [
{"type": "image_url", "image_url": "https://test.com/img/test.png"},
{"type": "text", "text": "hogehoge"}
]
}
空文字入力
- Meta Llama: システムメッセージを空文字にすることができない(system message to be non-empty)
- Anthropic Claude: 空文字の送信ができない: all messages must have non-empty content except for the optional final assistant message)
複数画像
- Meta Llama: 一度に複数の画像ファイルをリクエストすることができない( Unable to submit request because it has 2 image files but the model only suppor)
画像サイズ
- Anthropic Claude: 画像の最大許容サイズ(8000ピクセル)At least one of the image dimensions exceed max allowed size: 8000 pixels
APIリファレンス参考リンク
OpenAI系モデル
Anthropic系モデル
Google系モデル
Meta系モデル
マルチモーダル参考リンク
OpenAIモデル
- Azure公式ドキュメント: GPT-4 Turbo with Vision の概念
- 最大入力画像サイズ: 入力画像の最大サイズは 20 MB
Anthropicモデル
-
AWS公式ドキュメント: AWS Bedrock Anthropic Claude Messages API
- リクエストボディのmedia_typeの説明欄にサポート対象の画像ファイルの種類の記載あり
- リクエストボディのdataの説明欄に画像ファイルサイズの上限値の記載あり
-
- F&Qに画像ファイルサイズの上限値の記載あり
Google系モデル
Meta系モデル
非機能要件
| モデル名 | コンテキストウィンドウ | 最大トークン出力 | 1 分当たりのトークン数 (TPM) | トレーニングカットオフ |
|---|---|---|---|---|
| GPT-4o | 128,000 | 16,384 | Enterprise and MCA-E: 30MDefault: 450K | 2023年10月01日 |
| GPT-4o-mini | 128,000 | 16,384 | Enterprise and MCA-E: 50MDefault: 2M | 2023年10月01日 |
| GPT-4.1 | 1,047,576 | 32,768 | Enterprise and MCA-E: 5MDefault: 1M | 2024年06月01日 |
| GPT-4.1-mini | 1,047,576 | 32,768 | Enterprise and MCA-E: 150MDefault: 5M | 2024年06月01日 |
| GPT-4.1-nano | 1,047,576 | 32,768 | Enterprise and MCA-E: 150MDefault: 5M | 2024年06月01日 |
| GPT-5.1 | 400,000 | 128,000 | Enterprise and MCA-E: 10MDefault: 1M | 2024年09月30日 |
| GPT-5.1-chat | 128,000 | 16,384 | Enterprise and MCA-E: 5MDefault: 1M | 2024年09月30日 |
| GPT-5-mini | 272,000 | 128,000 | Enterprise and MCA-E: 10MDefault: 1M | 2024年05月31日 |
| GPT-5-nano | 272,000 | 128,000 | Enterprise and MCA-E: 150MDefault: 5M | 2024年05月31日 |
| o3 | 200,000 | 100,000 | Enterprise and MCA-E: 10MDefault: 1M | 2024年06月01日 |
| o3-pro | 200,000 | 100,000 | Enterprise and MCA-E: 16MDefault: 1.6M | 2024年06月01日 |
| o3-mini | 200,000 | 100,000 | Enterprise and MCA-E: 16MDefault: 1.6M | 2023年10月01日 |
| o4-mini | 200,000 | 100,000 | Enterprise and MCA-E: 10MDefault: 1M | 2024年06月01日 |
| Claude Sonnet 4.5 | 200,000 | 64,000 | ※AWS Bedrock, Vertex AIのプロジェクトの設定による | 2025年07月 |
| Claude Haiku 4.5 | 200,000 | 64,000 | ※AWS Bedrock, Vertex AIのプロジェクトの設定による | 2025年07月 |
| Claude Opus 4.5 | 200,000 | 64,000 | ※AWS Bedrock, Vertex AIのプロジェクトの設定による | 2025年08月 |
| Gemini 3.0 Pro | 1,048,576 | 65,536 | ※Vertex AIのプロジェクトの設定による | 非公開 |
| Gemini 2.5 Pro | 1,048,576 | 65,536 | ※Vertex AIのプロジェクトの設定による | 2025年01月 |
| Gemini 2.5 Flash | 1,048,576 | 65,536 | ※Vertex AIのプロジェクトの設定による | 2025年01月 |
| Gemini 2.5 Flash-Lite | 1,048,576 | 65,536 | ※Vertex AIのプロジェクトの設定による | 2025年01月 |
注記:
- OpenAIモデルのTPMはAzureに準拠した値を設定
- 「トレーニングカットオフ」は、「どこまでのデータを使ってモデルを学習させるか」を決めた日付
- AWS Bedrock、Vertex AIのクォータ制限はプロジェクトごとの設定により異なります
トレーニングカットオフ参考リンク
OpenAI系モデル
-
OpenAI公式ドキュメント: モデル一覧 ※各モデルの紹介ページ移動後、Knowledge cutoffから確認可能
-
Azure公式ドキュメント: モデル一覧 ※各モデルの紹介ページ移動後、Training Dataから確認可能
Anthropic系モデル
- Anthropic公式ドキュメント: モデル一覧 ※Training data cut-offから確認可能
Google系モデル
- Google Cloud公式ドキュメント: Googleモデル一覧 ※各モデルの紹介ページ移動後、Training dataから確認可能
Meta系モデル
- Hugging Face公式ドキュメント: Meta Llamaモデル一覧
- Google Cloud公式ドキュメント: モデルガーデン ※各モデルの紹介ページ移動後、Knowledge cutoffから確認可能
クォーター制限(TPMなど)参考リンク
OpenAI系モデル
Anthropic系モデル
- Anthropic公式ドキュメント: Anthropic APIのクォータ制限
- ※AWS Bedrock, Vertex AIの場合はプロジェクトの設定による
- AWS公式ドキュメント: AWS Bedrockクォーター制限
- Google Cloud Console: クォーター制限
- 以下の項目から確認が可能。割り当てられてるクォーターはプロジェクトによる
- Online prediction input tokens per minute per base model per minute per region per base_model → Regionごとのベースモデル別オンライン予測入力トークン数(分あたり)
- Online prediction output tokens per minute per base model per minute per region per base_model → Regionごとのベースモデル別オンライン予測出力トークン数(分あたり)
- Global online prediction input tokens per minute per base model per minute per base_model → Globalのベースモデル別オンライン予測入力トークン数(分あたり)
- Global online prediction output tokens per minute per base model per minute per base_model → Globalのベースモデル別オンライン予測出力トークン数(分あたり)
- Google Cloud公式ドキュメント: Vertex AI クォータ制限
Google系モデル
- Google Cloud Console: クォーター制限
- 以下の項目から確認が可能。割り当てられてるクォーターはプロジェクトによる
- Online prediction input tokens per minute per base model per minute per region per base_model → Regionごとのベースモデル別オンライン予測入力トークン数(分あたり)
- Online prediction output tokens per minute per base model per minute per region per base_model → Regionごとのベースモデル別オンライン予測出力トークン数(分あたり)
- Global online prediction input tokens per minute per base model per minute per base_model → Globalのベースモデル別オンライン予測入力トークン数(分あたり)
- Global online prediction output tokens per minute per base model per minute per base_model → Globalのベースモデル別オンライン予測出力トークン数(分あたり)
- Google公式ドキュメント: Gemini API クォータ制限
- Google Cloud公式ドキュメント: Gemini for Google Cloud クォータ制限
- Google Cloud公式ドキュメント: Vertex AI クォータ制限
入出力トークン数(Context Window, Max Tokens)参考リンク
OpenAI系モデル
- OpenAI公式ドキュメント: モデル一覧
- Azure公式ドキュメント: モデル一覧 ※各モデルの紹介ページ移動後、Context Windowおよび、Max Tokensから確認可能
Anthropic系モデル
-
Anthropic公式ドキュメント: モデル一覧 ※各モデルの紹介ページ移動後、Context Windowおよび、Max Tokensから確認可能
-
AWS公式ドキュメント: AWS BedrockのAnthropicモデル一覧 ※各モデルの紹介ページ移動後、Context Windowおよび、Max Tokensから確認可能
-
Google Cloud公式ドキュメント: モデルガーデン ※各モデルの紹介ページ移動後、Max TokensのInputとOutputから確認可能
Google系モデル
-
Google Cloud公式ドキュメント: Googleモデル一覧 ※各モデルの紹介ページ移動後、Max input tokens, Max output tokensから確認可能
-
Google公式ドキュメント: Gemini モデル一覧 ※各モデルの紹介ページ移動後、Input token limit, Output token limitから確認可能
Meta系モデル
-
Hugging Face公式ドキュメント: Meta Llamaモデル一覧 ※各モデルの紹介ページ移動後、Context Lengthから確認可能
-
Meta公式ドキュメント: モデル比較表 ※プルダウンメニューで対象モデルを選択後、Input Context Windowまたは、Maximun Output Tokensから確認可能
サポートリージョン参考リンク
OpenAI系モデル
- Azure公式ドキュメント: モデル一覧 ※Model summary table and region availabilityから確認可能
Anthropic系モデル
-
- 以下の項目から確認が可能。Regionからサポートリージョンが分かる
- Online prediction input tokens per minute per base model per minute per region per base_model → Regionごとのベースモデル別オンライン予測入力トークン数(分あたり)
- Online prediction output tokens per minute per base model per minute per region per base_model → Regionごとのベースモデル別オンライン予測出力トークン数(分あたり)
- Global online prediction input tokens per minute per base model per minute per base_model → Globalのベースモデル別オンライン予測入力トークン数(分あたり)
- Global online prediction output tokens per minute per base model per minute per base_model → Globalのベースモデル別オンライン予測出力トークン数(分あたり)
Google系モデル
Meta系モデル
リリースノート参考リンク
OpenAI系モデル
- OpenAI公式ドキュメント: OpenAI リリースノート
- OpenAI Pythonパッケージリリースノート
- Azure公式ドキュメント: Azure OpenAI リリースノート
- Azure公式ドキュメント: Azure OpenAI リリースノート(Github)
- Azure OpenAI API Previewバージョン
- Azure OpenAI APIバージョン
Anthropic系モデル
- Anthropic公式ドキュメント: Claude API リリースノート
- Anthropic公式ドキュメント: Claudeアプリ リリースノート
- Anthropic公式ドキュメント: APIバージョン一覧
- AWS公式ドキュメント: AWS Bedrockリリースノート
- Google Cloud公式ドキュメント: Vertex AIリリースノート
Google系モデル
- Google Cloud公式ドキュメント: Gemini APIリリースノート
- Google Cloud公式ドキュメント: Gemini APIバージョン一覧
- Google Cloud公式ドキュメント: Vertex AIリリースノート
おわりに
この記事では、OpenAI、Anthropic、Google、Metaの主要LLMについて、料金、機能要件、非機能要件、API仕様などを比較しました。
各モデルには特徴があり、用途や予算に応じて最適なモデルを選択することが重要です。また、技術の進化は非常に速いため、本記事の情報は定期的に更新される可能性があります。最新情報については、必ず各サービスの公式ドキュメントをご確認ください。
この記事がAIを学習されている方や、実務でLLMを活用される方の参考になれば幸いです。