はじめに

この記事では、Azure、AWS、Google Cloudの3大クラウドサービスのAIサービスの新規機能リリース履歴をまとめています。

主に以下のURLの情報をもとに新機能のキャッチアップを行っています。


Azure

2025年04月05日: Azure FunctionsがMCPトリガーに対応

Azure FunctionsがMCP(Model Context Protocol)に対応したMCPトリガーが利用可能になりました。

VS Code上のGitHub CopilotなどのMCPクライアントからMCPトリガーのFunctionsをコールすることができるようになっています。

https://techcommunity.microsoft.com/blog/appsonazureblog/build-ai-agent-tools-using-remote-mcp-with-azure-functions/4401059

Microsoft公式ブログ: Azure FunctionsがMCPトリガーに対応

Zenn: MCPトリガーで現在時刻を応答するコードの例

2025年04月14日: Azure OpenAIでGPT-4.1が利用可能に

OpenAIからリリースされたGPT-4.1がAzure OpenAIでも利用可能になりました。

  • 最大100万トークン対応:従来のGPT-4o(12.8万トークン)を大幅に超える
  • 3モデル展開:「GPT‑4.1」「GPT‑4.1 mini」「GPT‑4.1 nano」
  • mini:GPT-4o超えの知能、レイテンシ半減、コスト83%減
  • nano:1Mトークン対応、MMLU 80.1%、5秒以内応答
  • ナレッジカットオフは2024年06月
Model Reasoning & Accuracy Cost & Efficiency Context Length
gpt-4.1 Highest Higher Cost 1M
gpt-4.1-mini Balanced Balanced 1M
gpt-4.1-nano Lower Lowest Cost 1M
  • eastus2とswedencentralリージョンで利用可能
Model Input Version Input Cached Input Output
gpt-4.1 gpt-4.1-2025-04-14 $2.00 $0.50 $8.00
gpt-4.1-mini gpt-4.1-mini-2025-04-14 $0.40 $0.10 $1.60
gpt-4.1-nano gpt-4.1-nano-2025-04-14 $0.10 $0.025 $0.40
gpt-4.5-preview gpt-4.5-preview-2025-02-27 $75.00 $37.50 $150.00
gpt-4o gpt-4o-2024-08-06 $2.50 $1.25 $10.00
gpt-4o-mini gpt-4o-mini-2024-07-18 $0.15 $0.075 $0.60
o3-mini o3-mini-2025-01-31 $1.10 $0.55 $4.40

2025年04月16日: Azure OpenAIでo4-miniとo3

OpenAIから提供された最新の推論モデル(reasoning models)のo4-miniとo3がAzure OpenAIでも利用可能になりました。

  • より複雑な論理的思考を必要とするタスクで高い正答率
  • レイテンシが低減
  • コスト効率も改善(o4-miniは軽量モデル)
  • ナレッジカットオフは2024年06月
Model Input Version Input Cached Input Output
gpt-4.1 gpt-4.1-2025-04-14 $2.00 $0.50 $8.00
gpt-4.1-mini gpt-4.1-mini-2025-04-14 $0.40 $0.10 $1.60
gpt-4.1-nano gpt-4.1-nano-2025-04-14 $0.10 $0.025 $0.40
gpt-4.5-preview gpt-4.5-preview-2025-02-27 $75.00 $37.50 $150.00
gpt-4o gpt-4o-2024-08-06 $2.50 $1.25 $10.00
gpt-4o-mini gpt-4o-mini-2024-07-18 $0.15 $0.075 $0.60
o3 o3-mini-2025-04-16 $10.00 $2.50 $40.00
o3-mini o3-mini-2025-01-31 $1.10 $0.55 $4.40
o4-mini o4-mini-2025-04-16 $1.10 $0.275 $4.40

2025年04月16日: GPT-image-1がリリース(プレビュー、限定アクセス)

GPT-image-1はOpenAIの最新画像生成モデルで、ユーザーが指定したテキストプロンプトや(オプションで)画像をもとに画像を生成します。

利用には早期アクセス申請が必要です。

GPT-Image-1利用申請

画像生成API仕様

APIの仕様以下の通り。

URL
Post https://<your_resource_name>.openai.azure.com/openai/deployments/<your_deployment_name>/images/generations?api-version=<api_version>
ヘッダ
Content-Type: application/json
api-key: <あなたのAPIキー>
リクエストボディ
{
  "prompt": "ビーチにあるカラフルな傘と使い捨てカメラ",
  "model": "gpt-image-1",
  "size": "1024x1024",
  "n": 1,
  "quality": "high"
}

指定可能なオプションは以下の通り。

サイズ(Size)

生成される画像のサイズを指定する。
※正方形の画像(1024x1024)は、生成速度が速い。

  • 1024x1024
  • 1024x1536
  • 1536x1024
クオリティ(Quality)

画像の品質。以下の3つから選択可能。
※品質が低いほど、画像の生成は速い。
※デフォルトは high

  • low(低)
  • medium(中)
  • high(高)
画像数(Number)

1回のAPI呼び出しで生成できる画像は1〜10枚。
デフォルト値は 1

ユーザーID(User ID)

user パラメータを使って、リクエストを行うユーザーの一意なIDを指定できる。 これは利用状況の追跡・監視に役立つ。
値はユーザーIDやメールアドレスなど、任意の文字列を使用可能。

出力形式(Output format)

output_format パラメータで画像のフォーマットを指定できる。

  • PNG(デフォルト)
  • JPEG

※注意:Azure OpenAI Serviceでは WEBP形式は非対応

圧縮(Compression)

output_compression パラメータで生成される画像の圧縮率を指定できる。 値は 0~100 の整数:

  • 0 は圧縮なし
  • 100 は最大圧縮(デフォルト)

レスポンスボディ

{
  "created": 1698116662,
  "data": [
    {
      "url": "<生成された画像のURL>",
      "revised_prompt": "<実際に使われたプロンプト>"
    }
  ]
}

Azure公式ドキュメント: 画像生成モデル

2025年04月16日: Realtime API (preview)がWebRTCをサポート

OpenAIのリアルタイム音声会話を実現するRealtime API (preview)にWebRTC対応が追加されました。

WebRTC対応によりリアルタイム音声ストリーミングと低遅延インタラクションが可能になりました(ライブサポートや対話型音声アシスタントに最適)。

WebRTC(Web Real-Time Communication)は、ブラウザやモバイルアプリ間でリアルタイム通信を実現するための標準技術。

WebRTCはクライアント同士でのP2P通信を前提としており、リアルタイム性を出すために再送しないため、低遅延の通信を実現します。

WebRTCと類似するものとしてWebSocketがありますが、こちらはクライアントとサーバー間の双方向通信に特化しており、再送制御・順序保証をする代わりにWebRTCほどのリアルタイム性は重視していない特徴があります。

WebRTCはビデオ会議などリアルタイム性を重視するケースで使われ、WebSocketはチャットアプリなどのシンプルなテキストやバイナリデータの送受信に適しています。


AWS

2025年04月02日: AWS Bedrockでバッチ推論可能なリージョンが追加

バッチ推論が以下のモデル・リージョンに対応:

  • Anthropic Claude 3.5 Sonnet V2 → アジア太平洋(ムンバイ、ハイデラバード、シンガポール、シドニー、ソウル、大阪)

  • Amazon Titan Text Embeddings V2 → 欧州(ストックホルム、ミラノ、スペイン)

  • AWS公式: バッチ推論

2025年04月02日: Amazon Novaの各モデルがプロビジョニングスループット対応モデルに追加

プロビジョニングスループットのモデルにAmazon Novaの各モデルが新たにサポート対象として追加されました。

プロビジョニングスループットは、通常の料金がモデルが処理した入力と出力の使用量に応じた従量課金であるのに対して、スループット(モデルの入力と出力の処理性能)を事前に購入することで、利用時間に応じて課金が発生するので、使用量によらず料金を固定コストにすることができます。

プロビジョンドスループットは1時間ごとに料金が発生し、金額は使うAIの種類や性能によって変わります。

Amazon Novaは2024年12月にAmazonが発表したAI基盤モデルで、Amazon Nova Canvaは、画像生成に対応したモデルです。
Amazon Nova(Lite/Micro/Pro)の各モデルにおける24kトークンのコンテキストウィンドウにも対応しています。

2025年04月04日: AWS GovCloud (US-West)でAmazon Nova Lite、Amazon Nova Pro、Amazon Nova Microのバッチ推論がサポート開始

AWS GovCloud (US-West)リージョンでバッチ推論がAmazon Nova Lite、Amazon Nova Pro、Amazon Nova Microをサポートするようになりました。

2025年04月07日: Amazon Bedrockで有害なコンテンツ検出に関する新しいオプションが追加

Amazon Bedrockで有害コンテンツ検出後の処理オプションが新たに提供されました。

2025年04月08日: Amazon BedrockでPixtral Large (25.02)モデルが利用可能に

Amazon BedrockでPixtral Large (25.02)モデルを使用できるようになりました。

2025年04月09日: ヨーロッパ(フランクフルト)でカスタムモデルインポートがサポート

ヨーロッパ(フランクフルト)リージョンでカスタムモデルインポートがサポートされるようになりました。

2025年04月25日: Amazon Nova Lite/ProのInvokeModel・Converse APIでS3内画像・ドキュメント・動画参照が可能に

Amazon Nova LiteおよびAmazon Nova ProでInvokeModel APTとConverse APIがでAmazon S3に保存された画像、ドキュメント、動画を参照できるようになりました。
Converse APIでは、Bedrockの基盤モデル対して共通したアクセスを可能にするAPIです。
従来のInvokeModel APIに対して、リクエストの形式が共通化されており、モデルごとの差異を意識することなく、モデルの切り替えが容易になります。

2025年04月28日: Writer Palmyra X4とWriter Palmyra X5がAmazon Bedrockで利用可能に

Writer Palmyra X4およびWriter Palmyra X5モデルがAmazon Bedrockで使用可能になりました。 Writerは、アメリカ合衆国カリフォルニア州サンフランシスコに本社を置く企業 。

この企業は、企業向けの生成AIプラットフォームを提供しており、独自の大規模言語モデル(LLM)であるPalmyraシリーズを開発しています。

  • Writer社の大規模言語モデル「Palmyra X5」と「X4」が  Amazon Bedrockでフルマネージド提供開始(サーバーレス・API1本)

  • 主な特徴

    • X5:100万トークンの長コンテキスト対応
    • X4:12.8万トークン
    • 高精度な推論・ツール連携・RAG機能に強い
    • 複数言語対応(英・中・西・仏・独)
  • 用途例

    • 金融:市場調査や規制分析
    • 医療:文書処理・研究分析
    • IT:コード生成・検証
  • 提供リージョン:米国西部(オレゴン)

  • AWSは初の提供クラウド、スケーラブルかつコスト効率よく運用可能

  • Writerコーポレートサイト

  • AWS公式ドキュメント: Writer の Palmyra X5 および X4 モデルが Amazon Bedrock で利用可能に

2025年04月28日: Meta Llama 4 Scout 17B InstructとLlama 4 Maverick 17B InstructがAmazon Bedrockで利用可能に

Meta Llama 4 Scout 17B InstructおよびLlama 4 Maverick 17B InstructモデルがAmazon Bedrockで使用可能になりました。


Google Cloud

2025年04月09日: Vertex AIのAgent Development Kit (ADK)がプレビュー版で利用可能に

2025年04月09日: Vertex AI Agent Engineの新機能

2025年04月09日: Gemini Live APIがパブリックプレビューで利用可能に

  • 8つの音声と31言語のChirp 3サポート

  • Vertex AI Studioでの更新されたUI

  • 会話セッションウィンドウの拡張

  • 画面共有機能

  • 音声入出力の文字起こし

  • Gemini 2.0 Flash Live API.

2025年04月09日: Agent Gardenがプレビュー版で利用可能に

2025年04月09日: Gemini 2.5 Proがパブリックプレビューで利用可能に

Google Cloud公式ドキュメント: Gemini 2.5 Pro

2025年04月09日: Groundingの新機能

2025年04月10日: Vertex AIでLlama 4の新機能

2025年4月16日: Vertex AI カスタムトレーニング向けの「Persistent resources」が正式リリース(GA)

Vertex AI カスタムトレーニング向けの「Persistent resources」が正式リリース(GA)されました。

Vertex AI「Persistent resources」は、直訳すると永続リソースで、カスタムトレーニング用の長時間実行クラスタで、ジョブ終了後も**手動で削除するまで残り続けます。

Persistent resourcesを使うべき場面は、以下の通りです。

  1. 重要なMLワークロードピーク時の容量確保が必要なとき
  2. 同じジョブを繰り返し実行してキャッシュを活用したいとき
  3. 短時間のトレーニングジョブを多数実行し、起動時間を短縮したいとき

2025年04月17日: Vertex AI「Gemini 2.5 Flash」がプレビュー版で提供開始

考力などのバランスの取れた機能を持つ軽量生成AIモデルGemini Flashの最新版「Gemini 2.5 Flash」がプレビュー提供開始されました。

04月21日: Colab Enterpriseのノートブックギャラリーが利用可能に

Colab Enterprise向けに、テンプレートやサンプルを集めたノートブックギャラリーが公開されました。
ノートブックギャラリーは、Colab Enterprise を使い始めるための厳選されたテンプレートやサンプルを含むノートブック集です。

カテゴリ別に閲覧するか、検索バーを使って目的のノートブックを探してください。

2025年04月29日: Colab EnterpriseでGemini機能(プレビュー)が拡張

Colab EnterpriseのGemini in Colab Enterprise(プレビュー)に以下の機能が追加されました。

2025年04月29日: Generative AI on Vertex AI v1でモデル利用制限

Generative AI on Vertex AI v1の新規プロジェクトでは、Gemini 1.5 ProおよびGemini 1.5 Flashモデルが利用できなくなりました。

モデルID リリース日 廃止予定日 推奨アップグレード先
gemini-1.5-pro-001* 2024年5月24日 2025年5月24日 gemini-2.0-flash
gemini-1.5-flash-001* 2024年5月24日 2025年5月24日 gemini-2.0-flash-lite
gemini-1.5-pro-002* 2024年9月24日 2025年9月24日 gemini-2.0-flash
gemini-1.5-flash-002* 2024年9月24日 2025年9月24日 gemini-2.0-flash-lite

2025年04月30日: Generative AI on Vertex AI v1のModel Garden拡充