GitHub ActionsによるAzure App Serviceデプロイ入門

  • POST
はじめに Azure App ServiceへのアプリケーションデプロイにおいてCI/CD(継続的インテグレーション/継続的デリバリー)の導入は、開発の効率化と品質向上に不可欠です。 本記事では、GitHub Actionsを使用してAzure App Serviceへ自動デプロイする方法を解説します。 GitHub Actionsとは GitHub Actionsは、GitHubが提供するCI/CD(継続的インテグレーション/継続的デリバリー)プラットフォームです。 リポジトリ内で直接ビルド、テスト、デプロイのワークフローを自動化できます。 特徴: リポジトリと統合: GitHubリポジトリと密接に統合され、プッシュやプルリクエストなどのイベントに応じて自動実行 豊富なアクション: GitHub Marketplaceで公開されている数千のアクションを活用可能 無料枠: パブリックリポジトリは無料、プライベートリポジトリも一定時間まで無料 基本概念 ワークフロー(Workflow) 自動化されたプロセス全体を定義するYAMLファイル。.github/workflows/ディレクトリに配置します。 ジョブ(Job) ワークフロー内で実行される作業の単位。複数のジョブを並行または順次実行できます。 ステップ(Step) ジョブ内で実行される個別のタスク。コマンドの実行やアクションの呼び出しを行います。 アクション(Action) 再利用可能な処理単位。GitHub Marketplaceで公開されているものや、自作のものを使用できます。 ランナー(Runner) ワークフローを実行する仮想マシン。GitHubホステッドまたはセルフホステッドを選択できます。 ワークフロー構文の基礎 基本的なワークフロー構文を見てみましょう: name: 'ワークフロー名' # トリガー条件 on: push: branches: - main pull_request: branches: - main # 環境変数 env: APP_NAME: my-app PYTHON_VERSION: '3.10' # ジョブ定義 jobs: # ビルドジョブ build: runs-on: ubuntu-latest steps: - uses: actions/checkout@v4 - name: Setup Python uses: actions/setup-python@v5 with: python-version: ${{ env.

Claude Codeとは? - AnthropicのCLI型AIコーディングツールについて紹介

  • POST
はじめに 本記事では、Claude Codeについてご紹介いたします。 近年、AIによるコーディング支援は急速に発展しており、Anthropic社が提供するClaude Codeはその最前線に位置しています。 従来の「エディタ連携型(VS Code拡張など)」とは異なり、CLI(Command Line Interface)ベースで動作する点が大きな特徴です。 Claude Codeとは Claude Codeは、2025年5月22日にAnthropic社から提供されたCLI型のAIコーディングツールです。 ターミナル上で自然言語を入力すると、AIがコードベースを解析し、以下のような操作をサポートします。 新機能の実装 バグ修正 リファクタリング マルチファイル編集 👉 公式ドキュメント: https://docs.anthropic.com/en/docs/claude-code/overview Claude CodeがCLIで提供されている理由 IDE依存の回避 開発者によって使用するIDE(VS Code、Xcode、Vimなど)は異なります。 すべてのIDEにAI機能を実装することは現実的ではないため、CLI形式にすることで全ての環境で共通利用を可能にしています。 進化スピードへの柔軟な対応 GUIベースの開発支援ツールはアップデートに時間がかかる傾向があります。 モデルの進化に追随しやすいCLI形式を採用することで、俊敏な更新や適応が可能となっています。 将来的にはIDE自体が不要となる可能性も見据えています。 上記のような開発コンセプトがあり、Claude Codeが注目される背景には、以下のようなCLIであることによる恩恵が大きいことがあげられます。 環境依存がないため、OSやエディタを問わず使用可能 コマンドラインベースのため、GUIよりも軽量で動作が高速 Claude CodeとCursorなどのAIエディタとの比較 AIエディタだと変更された箇所がエディタ上で可視化されるので、どのファイルのどの部分が変更されたのかすぐにわかります。 一方、Claude Codeの場合はCLIのため、どこが変更されたか把握しづらいという印象です。 特に大規模なコード生成が実行された場合、変更箇所のレビューワークが重くなる傾向があります。 Claude Codeをインストール 以下のサイトをもとに各OSに応じてインストールします。 https://docs.claude.com/ja/docs/claude-code/setup 自身のプロジェクトのルートに移動します。 cd your-project-directory .claude/settings.json を作成します。 Google CloudeのVertex AIを使用する場合は以下を設定。

Azure Functionsの従量課金プランからFlex従量課金プランへの移行ガイド

  • POST
はじめに 2028年9月30日以降、Azure FunctionsのConsumption(従量課金)プランでLinuxの関数アプリを実行する機能は廃止されます。 Azure Functionsとは? Azure Functionsは、サーバーの管理や設定を気にせずに、コードを実行できるMicrosoftのクラウドサービスです。特定のイベント(HTTPリクエスト、タイマー、データベースの変更など)が発生したときに自動的にコードが実行されます。 Function のスケールとホスティングオプション | Microsoft Learn なぜ廃止されるのか? Microsoftは、より高性能で柔軟な新しいプラン(Flex Consumption)を提供するため、古いプランのサポートを段階的に終了します。 新しいプランは、従来のプランの課題(仮想ネットワーク非対応、コールドスタートの遅さなど)を解決しています。 よって、今後新規で作成するFunctionsのプランは**Flex Consumption(Flex従量課金)**にする方が好ましいです。 本記事では、Flex Consumption プランとConsumptionプランの違い、移行時の変更点について紹介します。 Flex Consumptionとは Flex Consumption プランは2024 年 11 月 に GA(一般提供)となった従来のCunsumptionプランの進化版的なプランで、より柔軟に利用することができるAzure Functionsの新しいプランです。 Azure Functions Flex Consumption プラン ホスティング | Microsoft Learn Flex Consumption と Consumption プランからの変更点 主要機能の比較表 機能 Consumption Flex Consumption ゼロスケール ✅ 可能 ✅ 可能 スケール動作 イベント駆動 イベント駆動(高速) 仮想ネットワーク ❌ 非対応 ✅ 対応 専用コンピュート(コールドスタート対策) ❌ なし ✅ 常時起動インスタンス(任意) 課金 実行時間のみ 実行時間 + 常時起動インスタンス 最大スケールアウトインスタンス数 200 1000 用語解説:

生成系AIが正しいナレッジカットオフを答えない理由

  • POST
はじめに 生成系AI(LLM:Large Language Model)を使っていて、「あなたのナレッジカットオフは?」と聞いたときに、明らかに間違った日付を返されたことはありませんか? 例えば、Redditのユーザー報告によると、Geminiに英語で「今日の日付は?」と聞くと「2024年6月11日」と答えることがあるそうです。これは一見すると単純なバグのように見えますが、実はLLMの構造的な特性によるものです。 この記事では、AIの「ナレッジカットオフ」と「トレーニングカットオフ」の違い、そしてなぜAIが現在の日付について虚偽の報告(hallucination)をしてしまうのかを解説します。 ナレッジカットオフとトレーニングカットオフの違い まず、2つの重要な概念を理解する必要があります。 トレーニングカットオフ(Training Data Cutoff) トレーニングカットオフとは、AIモデルの学習に使用されたデータの最終日付です。例えば: あるモデルが「2025年7月までのデータ」で訓練された場合、トレーニングカットオフは2025年7月となります この範囲内のデータは、すべてモデルの学習に使用されたことを意味します ナレッジカットオフ(Reliable Knowledge Cutoff) 一方、ナレッジカットオフは、モデルの知識が最も広範で信頼できる日付を指します。 トレーニングデータに含まれていても、すべての情報が同じレベルで学習されるわけではありません モデルが最も確実に知識を持っているのは、ナレッジカットオフまでの情報です 具体例:Claude Sonnet 4.5 Anthropicの透明性レポートによると、Claude Sonnet 4.5は以下のように定義されています: トレーニングカットオフ: 2025年7月 ナレッジカットオフ: 2025年1月 つまり、7月までのデータで訓練されていますが、最も信頼できる知識は1月までということです。これは、後半のデータが学習に含まれていても、その範囲の情報はまだ十分に網羅的ではない、または検証が不十分であることを示しています。 なぜAIは今日の日付を間違えるのか システム時刻へのアクセスがない LLMは、リアルタイムのシステム時刻にアクセスできません。これが問題の根本原因です。 通常のプログラムであれば、OSのシステム時刻APIを呼び出せば現在の日付を正確に取得できます。しかし、LLMは以下の理由でこれができません: 純粋な言語モデル: LLMは入力されたテキストに基づいて次のテキストを予測するだけ 外部APIへのアクセス制限: セキュリティやアーキテクチャ上の理由で、外部システムへの直接アクセスは制限されている 学習データからの推論: 「今日は何日ですか?」という質問に対して、学習データ内のパターンから「それらしい答え」を生成してしまう トレーニングデータの模倣 LLMは、学習データ内に含まれる「今日は〇〇年△△月××日です」という記述を模倣して答えを生成します。 例えば: 学習データに「今日は2024年6月11日です」という記述が多く含まれていた場合 モデルは「今日の日付を聞かれたら、2024年6月11日と答えるのが適切」と学習してしまう可能性がある これは、モデルが意図的に嘘をついているのではなく、学習データのパターンを忠実に再現しようとした結果です。 Hallucinationのメカニズム この現象は、AIの「hallucination(幻覚、虚偽の報告)」の一種です: 学習データ内の日付の分布: 学習データ内で最も頻繁に「今日」として言及された日付 パターンの強化: 訓練中に繰り返し学習された日付が強く記憶される 現実との乖離: 実際の現在日とは無関係に、学習データのパターンを再現してしまう 実例:各AIモデルの状況 Gemini(Google) Redditの報告によると:

岡山のSEのための技術力向上ガイド2025

  • POST
はじめに 岡山でシステムエンジニアとして働く上で、技術力の維持・向上は重要な課題です。 地方では首都圏と比べて最新技術に触れる機会が少なかったり、技術コミュニティの規模が小さかったりと、スキルアップの環境面で不利な点もあります。 しかし、現代ではオンラインリソースの充実により、場所に関係なく技術力を高めることが可能になっています。 この記事では、岡山で働くSEが技術力を向上させるための実践的な方法を紹介します。 オンライン学習リソースの活用 プログラミング学習プラットフォーム 場所を問わず学習できるオンラインプラットフォームを活用しましょう。 Udemy 世界最大級のオンライン学習プラットフォームです。 セール時には90%オフで購入できることも多く、コストパフォーマンスに優れています。 特にAWS、Azure、React、Pythonなど実務で使える技術の講座が充実しています。 https://www.udemy.com/ Coursera / edX 大学レベルの本格的なコンピュータサイエンスを学べるプラットフォームです。 スタンフォード大学やMITなどの有名大学の講座を無料で受講できます。 英語が中心ですが、字幕付きの講座も多いです。 https://www.coursera.org/ https://www.edx.org/ Progate / paiza 日本語でプログラミングの基礎を学べるサービスです。 初心者の方や新しい言語を学ぶ際の入り口として最適です。 https://prog-8.com/ https://paiza.jp/ 技術書の読書 技術書典 同人誌形式で最新技術の書籍が手に入ります。 オンライン開催もあるため、岡山からでも参加可能です。 実務に即した知識が得られる良書が多く揃っています。 https://techbookfest.org/ O’Reilly Learning IT技術書の出版社O’Reillyの電子書籍読み放題サービスです。 月額49ドルで膨大な技術書にアクセスできます。 英語が読めるエンジニアには非常にお得なサービスです。 https://www.oreilly.com/ Kindle Unlimited 月額980円で対象の技術書が読み放題です。 入門書からある程度実践的な内容まで幅広くカバーされています。 岡山のエンジニアコミュニティへの参加 地域のコミュニティ活動に参加することで、同じ地域のエンジニアとの交流や情報交換ができます。 岡山エンジニア座談会 岡山のエンジニアが集まる定期的な勉強会です。 技術トークや情報交換の場として活用できます。 https://okayama-engineer.connpass.com/ 岡山WEBクリエイターズ Web制作やデザインに関する勉強会を定期的に開催しています。 フロントエンド技術やUI/UXに興味がある方におすすめです。 https://www.okaweb.jp/ GDG Okayama Google技術を中心としたコミュニティです。 Google I/O Extendedなどのイベントを開催しています。 TechGuild Azureやクラウド技術に関するハンズオンセミナーを開催しています。 実践的なスキルを学べる機会です。 Okayama.rb / Okayama.go など プログラミング言語ごとのコミュニティも存在します。 connpassやDoorkeeperで検索すると見つかります。

【2025年10月】3大クラウド(Azure, AWS, Google Cloud)のAI系サービスリリースノート

  • POST
はじめに この記事では、Azure、AWS、Google Cloudの3大クラウドサービスのAIサービスの新規機能リリース履歴をまとめています。 主に以下のURLの情報をもとに新機能のキャッチアップを行っています。 Azure公式ドキュメント: Azure OpenAI Serviceニュース Azure公式ドキュメント: Azure AI Agent Serviceニュース Github: Azure公式ドキュメント管理リポジトリ Github: Azure OpenAI APIプレビューバージョン一覧 Github: Azure OpenAI API安定版バージョン一覧 AWS公式ドキュメント: AWS Bedrockリリースノート Google Cloud公式ドキュメント: Vertex AIリリースノート Anthropic公式ドキュメント: APIバージョン一覧 Azure 2025年10月01日: Microsoftがエージェント型AIアプリ開発基盤「Microsoft Agent Framework」を発表 エージェント型AIアプリを開発するためのSDKとランタイム「Microsoft Agent Framework」を発表し、パブリックプレビューを開始されました。 概要:AutoGenとSemantic Kernelを統合し、エンタープライズ対応のマルチエージェント開発基盤として設計。 AutoGen=Microsoft開発のA2A(Agent to Agent)連携用フレームワーク。 Semantic Kernel=Microsoft開発のエージェント内部の機能・プラグイン・メモリ管理を担うフレームワーク。 今後の統合計画:

Microsoft Copilot 秋の大型アップデート:12の新機能まとめ

  • POST
はじめに 2025年10月、MicrosoftはCopilotの秋の大型アップデートを発表しました。 今回のアップデートでは、共同作業を強化するグループ機能や、新しいAIアシスタントMico、健康情報提供機能など、12の新機能が追加予定とのことです。 本記事では、それらの新機能をわかりやすく解説します。 Microsoft Copilot 12の新機能アップデート 1. グループ機能 アップデート内容 最大32人までのユーザーが同時に同一のCopilotチャットセッションに参加できる機能が追加されました。 Copilotが会話の文脈を保持し、要約やタスク管理も自動的に行います。 ユースケース チームブレインストーミング:マーケティングチームが新製品のキャンペーンアイデアを複数人で同時に出し合い、Copilotが提案を整理・要約いたします プロジェクト計画立案:開発チームがスプリント計画を共同で作成し、タスクの割り振りをCopilotに支援してもらうことができます 共同文書編集:複数の部署にまたがるレポート作成時に、リアルタイムで意見を交換しながら文書を完成させることが可能です 2. Imagine アップデート内容 AI生成コンテンツを共同で作成・リミックスできる空間が提供されます。 ビジュアル、マーケティング資料、トレーニング素材のプロトタイプ作成に最適化されています。 ユースケース マーケティング資料作成:広告チームが複数のビジュアル案をAIで生成し、チーム内で編集・改良を重ねることができます 研修教材開発:人事部門が新入社員向けのトレーニング資料を視覚的に作成し、複数の講師で内容を調整できます プレゼンテーション素材:営業チームが顧客向け提案資料のビジュアルを共同で作成・改善することが可能です 3. Mico(ミコ) アップデート内容 雫をモチーフにしたキャラクターのAIアシスタントが導入されました。 感情表現が豊かで、Cortanaの進化版のような位置付けとなっております。 現時点ではキャラクターのアニメーション表示が主な機能で、ビジネス的な用途は限定的になると思われます。 ユースケース カジュアルな対話体験:ビジネス以外の場面で、よりフレンドリーなインターフェースを通じてAIと対話することができます 教育現場での活用:学生や子供向けに、親しみやすいキャラクターを通じて学習支援を提供できます 4. Real Talk アップデート内容 ユーザーの話し方に合わせて会話スタイルを調整し、建設的な対話や「ソクラテス式」の問題解決を支援する機能が追加されました。 ソクラテス式とは、古代ギリシャの哲学者ソクラテスが用いた対話による思考法で、質問を通じて相手の考えを深掘りし、矛盾や曖昧さを明らかにすることで、より明確で論理的な理解に導く方法です。 ユースケース コーチング・メンタリング:マネージャーが部下との対話スキルを向上させるための練習ツールとして活用が期待されます 5. メモリーとパーソナライズ アップデート内容 ユーザーの好み、目標、文脈を長期的に記憶する機能が実装されました。記憶内容は編集可能で、プライバシーにも配慮されております。 ユースケース 継続的なプロジェクト管理:過去の会話や決定事項を記憶し、プロジェクトの文脈を保持したまま作業を継続できます パーソナライズされた提案:ユーザーの業務スタイルや好みを学習し、より適切な提案を行うことが可能です 長期目標の追跡:四半期目標や年間目標を記憶し、進捗状況に応じたアドバイスを提供いたします 6. コネクター アップデート内容 OneDrive、Outlook、Gmail、Google Drive、Googleカレンダーなどと連携し、自然言語で横断検索が可能になりました。 ユースケース 統合情報検索:「先月の営業会議の資料」と尋ねるだけで、複数のクラウドサービスから関連ファイルを検索できます スケジュール管理:異なるカレンダーサービスをまたいで、会議の空き時間を一括で確認することが可能です メール・ファイル統合管理:GmailとOutlookの両方から特定のプロジェクトに関する情報を一度に取得できます 7.

【初心者向け】思い通りに画像を生成する!画像生成プロンプト作成ガイド

  • POST
はじめに 以前は画像生成AI技術はなかなか思い通りの画像が生成されなかったり、日本語テキストの生成の精度が低いなどの課題がありましたが、 昨今ではOpenAIやGoogleなどが提供している画像生成モデルの精度が大幅に向上し、ビジネスにおいても活用の幅が広がっています。 この記事ではChatGPTやMicrosoft Copilotで画像生成AIを使って思い通りの画像を生成するためのプロンプトの書き方について説明します。 ※初心者向けのため、応用的な内容ではなく、基本的な内容になります。 ビジネスにおける画像生成のユースケース ビジネスにおいての画像生成系AIの活用事例として以下のようなものがあります。 1. デザイン・コンテンツ制作 製品ロゴやアイコン、サムネイル画像、キャラクター、書籍表紙、UI素材などの生成。 新しく生成するコンテンツに対して、AIにアイディアを提案させたい場合に使用します。 例 (新製品の画像をAIに提案させる) 最先端感のある最新スペックPCのデザインを提案せよ。 例 (新製品のアイコンをAIに提案させる) 新しいAIチャットサービス「Hogehoge AI」のアイコンを生成せよ 2. マーケティング・プロモーション 商品画像、広告用画像、イベント告知画像などの生成。 販売促進や集客目的で視覚的訴求を強化したい場合に使用します。 例 (イベント告知用画像を生成系AIに作成させる) 10月開催のテックカンファレンス告知用のSNS投稿用の画像 3. 業務・資料作成支援 図解、構成図、スライド背景、資料添付用画像などの生成。 文章だと分かりづらい事柄を図で表現させたり、資料作成の素材を生成させたい場合に使用します。 例 (図解: 生成系AIとチャットしていて分からなかったことなどを図で表現させる) 今までの会話内容をもとにLLMの概念について説明する画像を作成して 例: PowerPointのスライド背景 テクノロジー×イノベーションを象徴するデザインのスライド背景を生成して 既存画像への編集 最新の生成系AIでは既存の画像に対しての編集も可能になっており、以下のようなことができます。 テロップ挿入 キャッチコピーの挿入 タイトルの挿入 日付情報の挿入 この画像にキャッチコピーを追加した画像を生成して 画像の一部を別の画像と差し替え 商品や人物画像の背景を変更し、商品、人物にあった背景を検証 商品や人物画像を変更し、背景にあった商品、人物を検証 画像内の花瓶をコーヒーカップに変更した画像を生成して 画像の一部を削除 商品写真の余計な影や撮影機材を削除 観光地やイベント写真の通行人を消去 画像内の机を削除して 特に最新の画像生成AIモデルは日本語の生成精度が上がったことにより、テキスト画像の生成が期待した通りの結果が得やすくなっており、テロップ挿入などがビジネスツールとしてかなり強力になってきています。

Azure Functions Pythonでストリーミングを実装するときの注意点

  • POST
はじめに 2024年5月から、Azure FunctionsのPythonでもHTTP Streamingが公式サポートされるようになりました。 本記事では、実装の流れとハマりやすい落とし穴について解説します。 ストリーミングとは ストリーミングとは、サーバーからのレスポンスを一括で応答せず、小さなデータに分割し、逐次的に配信する通信方式のことを指します。 小規模データに分割して、逐次配信するため、応答時間が短縮されるため、 動画や音声などの大規模データの配信や、チャット通知や株価更新など、リアルタイム性が求められる場面で利用されています。 SSE(Server-Sent Events)とは SSEは、日本語にするサーバー送信イベント。 クライアントが最初に送信する HTTP GETリクエスト をトリガーに、サーバーが通信を閉じずに継続送信する仕組みです。 サーバーは Content-Type: text/event-stream ヘッダーを返し、その後は通信を閉じずイベントを逐次的にクライアントへ送信し続けます。 類似の通信方式として、WebSocketがありますが、こちらは双方向の通信方式になります。 SSE:サーバー → クライアントの一方向通信(クライアントから送信するのは初回リクエストのみ) WebSocket:サーバー ↔ クライアントの双方向通信 背景と利用例 近年、ChatGPTをはじめとする生成AIサービスの急速な普及により、ストリーミング応答への需要が高まっています。 従来の一括応答方式では、大規模言語モデル(LLM)が長文を生成する際、すべての応答が完了するまでユーザーは待つ必要がありました。しかし、ストリーミング方式を採用することで、生成されたトークンから順次表示できるため、体感速度が大きく向上し、ユーザー体験が劇的に改善されます。 SSEは「受信専用のリアルタイム更新」が求められるケースに適しております。たとえば OpenAIのChatGPTをはじめとする生成AIサービス では、返答を一括で返すのではなく、トークン単位でストリーミング表示 する際に用いられることが多く、ユーザーはレスポンスを待たずに順次内容を確認できるため、体感速度が大きく向上いたします。 このような生成AIの普及を背景に、Azure Functionsでも2024年5月にPythonでのHTTP Streamingが正式サポートされ、モダンなAIアプリケーション開発がより容易になりました。 Azure Functionsでストリーミングを実装する 以前のAzure Functionsでは言語ランタイムがPythonの場合、Streamingがサポートされていませんでしたが、 2024年5月から、Azure FunctionsのPythonでもHTTP Streamingが公式サポートされるようになりました。 Functionsでストリーミングを実装する場合、以下の設定が必要になります。 環境変数設定 ストリーミングを使用する場合は、Azure Functionsの環境変数に以下の設定が必要になります。 この2つの変数の設定がないと、Functionsのリクエストがタイムアウトします。 設定がなくてもエラーログなどは出力されないので、トラブルシューティングに難儀することになることを防ぐため、設定忘れがないよう注意しましょう。 PYTHON_ENABLE_INIT_INDEXING=1 PYTHON_ISOLATE_WORKER_DEPENDENCIES=1 requirements.txt ストリーミングする際は、拡張機能としてFast-APIを有効にする必要があります。 azure-functions azurefunctions-extensions-http-fastapi function_app.py 下記はHello → from → Azure → Functions → Stream!の順に文字列をストリーミングで応答するコードです。

Azure OpenAIでGPT-Image-1をPythonのopenaiライブラリから使用する方法まとめ【注意点・トークン消費検証】

  • POST
はじめに GPT-Image-1は、OpenAIが提供する最新の画像生成モデルです。 この記事では、PythonのopenaiライブラリからGPT-Image-1を使用するにあたって導入から実装、料金や注意点まで体系的に整理します。 GPT-Image-1の概要 GPT-Image-1は、テキストからの画像生成や既存画像の編集を行うことができる画像生成モデルです。 以下の2つの機能が提供されています。 Image Genaration (画像生成) Image Edit (画像編集) OpenAI公式: GPT-Image-1 Image Genaration (画像生成) 入力したテキストプロンプトを元に画像を生成するAPIです。 gpt-image-1ではストリーミングを設定することができ、ストリーミングを有効にすると生成途中の中間画像を生成させることができます。 中間画像 完成画像 Image Edit (画像編集) 既存の画像に対して、画像の編集し、新たな画像を生成することが可能です。 入力したプロンプトにもとづき画像を編集 (例:背景を赤色にして、人物画像を追加して) 複数の入力画像を合成して、新たな画像を生成 (例: 2つの画像を合成して) 入力画像とともにマスク画像を指定することで、マスク画像に表示されている画像のみを編集対象にできる (例: 背景は同じまま、男性の画像を女性に変更する) マスク画像は入力画像の一部を透過したもので透明になっている部分のみが編集対象 以下にImage Editでマスク画像を使って既存の画像を編集した例を示します。 元画像 マスク画像 編集画像 料金体系 Azure OpenAIでは以下の料金体系で提供されています。 GPT-5と比較すると入力テキストのトークンの料金も4倍に上がっています。 ※GPT-Image-1 Globalの料金 モデル名 バージョン 提供状態 入力テキスト料金[$/1Mトークン] 入力画像[$/1Mトークン] 出力料金[$/1Mトークン] 備考 GPT-Image-1 gpt-image-1 GA 5 10 40 GPT-5 gpt-5-2025-08-07 GA 1.