AI

AzureでもClaude Codeを使いたい! Claude CodeでMicrosoft Foundryのモデルを使う手順

  • POST
AzureでもClaude Codeを使いたい! Claude CodeでMicrosoft Foundryのモデルを使う手順 はじめに 2025年11月のAzureのアップデートで、Microsoft Foundry(旧AI Foundry)でもAnthropic系のモデルが使用できるようになりました。 今までAzureプラットフォームでしかLLMを使用できないユーザーはClaudeモデルを使用することができませんでしたが、今回のアップデートからClaudeモデルが使用できることになります。 そこで、この記事では、Claude CodeでMicrosoft Foundryのモデルを使用する手順を紹介します。 1. Microsoft Foundryリソースのプロビジョニング Azure で Claude リソースを作成します。 Microsoft Foundryポータルに移動する 新しいリソースを作成し、リソース名をメモします。 Claude モデルのデプロイメントを作成します。 Claude Opus Claude Sonnet Claude Haiku 2. MS Foundryへのアクセス情報を取得 Claude Codeは、Microsoft Foundryでは、APIキーとEntra IDでの認証の2つの認証方法をサポートする。 自身のAzureユーザーアカウントにMicrosoft Foundryへのアクセス必要なRABCのロールが付与されている場合は、EntraIDを使用した方が、セキュアなアクセスになるので、おすすめです。 APIキー認証 エンドポイントとキーのセクションからAPIキーをコピーして控えます。 後述の環境変数の設定で、APIキーを設定します。 ANTHROPIC_FOUNDRY_API_KEY=xxx Microsoft Entra ID認証 ローカル環境でEntra IDを使用する場合は、一般的に Azure CLI を使用します。 Azure CLIをインストールして、Claude Codeの起動前に以下のコマンドを実行します。 az login 3.環境変数を設定 Claude Codeのsettings.jsonに以下を設定します。 ※Entra ID認証の場合は、ANTHROPIC_FOUNDRY_API_KEYの行は不要です。また、漏洩させないようにGit 管理しないようにしましょう。 { "companyAnnouncements": [ "Success to load ~/.

SHIFT AIとは?情弱向けの詐欺?地方エンジニアに必要かを冷静に評価

  • POST
はじめに 近年、生成AIの技術は急速に発展しており、ビジネスの現場においてもAI活用スキルの重要性が高まっています。 このような背景から、AIスキルを学ぶためのスクールやコミュニティサービスが数多く登場しています。 一方で、AI副業スクールや情報商材型サービスの中には、誇大広告や高額請求など、問題のあるものも少なくありません。 「誰でも簡単に稼げる」といった謳い文句で受講生を集め、実際には期待した成果が得られないケースも報告されています。 こうした状況の中で、SHIFT AIというサービスについて、「情報弱者向けの詐欺ではないか」といった声も聞かれます。 しかし、一方的な批判や評判だけで判断するのではなく、サービスの実態を冷静に分析することが重要です。 本記事では、SHIFT AIの特徴や業界の問題点を踏まえた上で、特に地方エンジニアの方々にとって必要なサービスなのかを客観的に評価していきます。 結論 情報収集が苦手な方には必要なサービスです。 ただし、自走できるエンジニアの方には必ずしも必須ではありません。 SHIFT AIの概要 SHIFT AIは、生成AI活用に特化した学習コミュニティ型のサービスです。 主な特徴は以下の通りです。 生成AIの基礎からビジネス活用まで幅広く学習可能 オンライン講義とコミュニティ運営を組み合わせた形式 セミナーやイベントの定期開催 継続的な学習を前提とした設計 単発のスクールというよりは、「AI活用コミュニティ」に近い性質を持っています。 最近では、地方を含む全国各地でワークショップなども開催されています。 AIスクール業界の問題点 近年、AI副業スクールや情報商材型サービスの中には、以下のような問題を抱えているものがあります。 「誰でも稼げる」といった誇大広告 ※スキルを取得しても実際には案件が獲得できないと収益には繋がりません 数十万円という高額な料金設定 返金が困難な契約条件 実務スキルに直結しない学習内容 学習コンテンツが膨大すぎて、全てを学習することが困難 勧誘セミナーが詐欺まがいの手法を用いている(限定料金など損失回避の原理を利用した手法) このような背景から、AIスクールには詐欺が多いといった批判的な意見も少なくありません。 被害事例動画(50万円の損失例): このように、業界全体の信頼性は必ずしも高いとは言えない状況です。 情報収集が苦手な方には必要なサービス Shift AI代表の木内翔大氏とひろゆき氏の対談動画では、AI失業、AI人材の価値、そして今後のキャリア戦略といったテーマについて議論されています。 木内氏は過去に侍エンジニアなど、プログラミングスクールを運営していた人物として知られています。 動画内では、「情報弱者向けビジネス」であるという批判に対して、「情報弱者を情報強者にすることこそが教育ビジネスの本質である」 という理念のもとに活動されていると発言されています。 SHIFT AIは詐欺なのか? 現時点では、「典型的な詐欺」と断定できる構造ではありません。 実在する企業であり、実名の代表者がおり、公の活動や対談実績も確認できます。 ただし、以下の点には注意が必要です。 料金は決して安くありません 成果保証はありません 継続的な学習を前提とした設計になっています 期待値が高すぎると失望する可能性があります 短期間で収益を上げたいとお考えの方には不向きなサービスと言えるでしょう。

Claude Codeとは? - AnthropicのCLI型AIコーディングツールについて紹介

  • POST
はじめに 本記事では、Claude Codeについてご紹介いたします。 近年、AIによるコーディング支援は急速に発展しており、Anthropic社が提供するClaude Codeはその最前線に位置しています。 従来の「エディタ連携型(VS Code拡張など)」とは異なり、CLI(Command Line Interface)ベースで動作する点が大きな特徴です。 Claude Codeとは Claude Codeは、2025年5月22日にAnthropic社から提供されたCLI型のAIコーディングツールです。 ターミナル上で自然言語を入力すると、AIがコードベースを解析し、以下のような操作をサポートします。 新機能の実装 バグ修正 リファクタリング マルチファイル編集 👉 公式ドキュメント: Anthropic公式ドキュメント: Claude Code概要 Claude CodeがCLIで提供されている背景 Claude Codeは以下の開発コンセプトで提供されています。 IDE依存の回避 開発者によって使用するIDE(VS Code、Xcode、Vimなど)は異なります。 すべてのIDEにAI機能を実装することは現実的ではないため、CLI形式にすることで全ての環境で共通利用を可能にしています。 進化スピードへの柔軟な対応 GUIベースの開発支援ツールはアップデートに時間がかかる傾向があります。 モデルの進化に追随しやすいCLI形式を採用することで、俊敏な更新や適応が可能となっています。 将来的にはIDE自体が不要となる可能性も見据えています。 Claude CodeのようなCLIが注目されている背景には、以下のようCLIならではの恩恵が大きいことがあげられます。 環境依存がないため、OSやエディタを問わず使用可能 コマンドラインベースのため、GUIよりも軽量で動作が高速 Claude CodeとCursorなどのAIエディタとの比較 AIエディタだと変更された箇所がエディタ上で可視化されるので、どのファイルのどの部分が変更されたのかすぐにわかります。 一方、Claude Codeの場合はCLIのため、どこが変更されたか把握しづらいという印象です。 特に大規模なコード生成が実行された場合、変更箇所のレビューに難儀することがあります。 Claude Codeをインストール 以下のサイトをもとに各OSに応じてインストールします。 Anthropic公式ドキュメント: Claude Code Setup

MCP(Model Context Protocol)入門 - AIとツールを連携させる標準プロトコル

  • POST
はじめに AIツールを使い始めると、「AIにデータベースを検索させたい」「AIに外部APIを呼び出させたい」という場面が出てきます。 そこで登場するのが MCP(Model Context Protocol) です。 この記事では、MCPの基本概念からアーキテクチャ、実装例までを解説します。 MCPとは MCP(Model Context Protocol)は、AIモデルとコンテキスト情報を効率的に連携させるための標準化されたプロトコルです。 2024年11月にAnthropicが発表し、オープンソースとして公開されました。 従来、AIモデルに外部のデータやツールを連携させる場合、アプリケーションごとに独自の実装が必要でした。 MCPはこの問題を解決するため、LLM(大規模言語モデル)とアプリケーションのコンテキスト情報を結びつける共通仕様を定義しています。 mcp-python-mcp-vrchat-ai-geminifrom Kuretan VR Anthropic - Model Context Protocol 発表 MCPの主な特徴 標準化されたインターフェース: 異なるAIモデルとアプリケーション間で一貫した通信を実現 コンテキスト管理: 会話履歴や関連情報を効率的に管理 拡張性: 新しいデータソースやツールを簡単に統合できる MCPを使うメリット MCPを使用することで、以下のメリットが得られます。 効率的なコンテキスト共有: AIモデルが必要な情報に迅速にアクセスできる 開発の簡素化: 標準化されたプロトコルにより、統合作業が容易になる パフォーマンス向上: 最適化されたデータ転送により応答時間が短縮される セキュリティ: 構造化されたアクセス制御とデータ管理が実現できる MCPのアーキテクチャ MCPのアーキテクチャは以下の主要コンポーネントで構成されます。 ┌─────────────┐ │ Client │ (AIアプリケーション) └──────┬──────┘ │ │ MCP Protocol │ ┌──────┴──────┐ │ Server │ (コンテキストプロバイダー) └──────┬──────┘ │ │ ┌──────┴──────┐ │ Data Source │ (データベース、API等) └─────────────┘ Client: Claude Desktopや各種AIアプリケーションなど、MCPを利用する側 Server: データソースやツールを提供する側。MCPの仕様に沿ってリソースやツールを公開する Data Source: 実際のデータが格納されているデータベースや外部API MCPの3要素 MCPは以下の3つの要素で構成されています。

生成系AIが正しいナレッジカットオフを答えない理由

  • POST
はじめに 生成系AI(LLM:Large Language Model)を使っていて、「あなたのナレッジカットオフは?」と聞いたときに、明らかに間違った日付を返されたことはありませんか? 例えば、Redditのユーザー報告によると、Geminiに英語で「今日の日付は?」と聞くと「2024年6月11日」と答えることがあるそうです。これは一見すると単純なバグのように見えますが、実はLLMの構造的な特性によるものです。 この記事では、AIの「ナレッジカットオフ」と「トレーニングカットオフ」の違い、そしてなぜAIが現在の日付について虚偽の報告(hallucination)をしてしまうのかを解説します。 ナレッジカットオフとトレーニングカットオフの違い まず、2つの重要な概念を理解する必要があります。 トレーニングカットオフ(Training Data Cutoff) トレーニングカットオフとは、AIモデルの学習に使用されたデータの最終日付です。例えば: あるモデルが「2025年7月までのデータ」で訓練された場合、トレーニングカットオフは2025年7月となります この範囲内のデータは、すべてモデルの学習に使用されたことを意味します ナレッジカットオフ(Reliable Knowledge Cutoff) 一方、ナレッジカットオフは、モデルの知識が最も広範で信頼できる日付を指します。 トレーニングデータに含まれていても、すべての情報が同じレベルで学習されるわけではありません モデルが最も確実に知識を持っているのは、ナレッジカットオフまでの情報です 具体例:Claude Sonnet 4.5 Anthropicの透明性レポートによると、Claude Sonnet 4.5は以下のように定義されています: トレーニングカットオフ: 2025年7月 ナレッジカットオフ: 2025年1月 つまり、7月までのデータで訓練されていますが、最も信頼できる知識は1月までということです。これは、後半のデータが学習に含まれていても、その範囲の情報はまだ十分に網羅的ではない、または検証が不十分であることを示しています。 なぜAIは今日の日付を間違えるのか システム時刻へのアクセスがない LLMは、リアルタイムのシステム時刻にアクセスできません。これが問題の根本原因です。 通常のプログラムであれば、OSのシステム時刻APIを呼び出せば現在の日付を正確に取得できます。しかし、LLMは以下の理由でこれができません: 純粋な言語モデル: LLMは入力されたテキストに基づいて次のテキストを予測するだけ 外部APIへのアクセス制限: セキュリティやアーキテクチャ上の理由で、外部システムへの直接アクセスは制限されている 学習データからの推論: 「今日は何日ですか?」という質問に対して、学習データ内のパターンから「それらしい答え」を生成してしまう トレーニングデータの模倣 LLMは、学習データ内に含まれる「今日は〇〇年△△月××日です」という記述を模倣して答えを生成します。 例えば: 学習データに「今日は2024年6月11日です」という記述が多く含まれていた場合 モデルは「今日の日付を聞かれたら、2024年6月11日と答えるのが適切」と学習してしまう可能性がある これは、モデルが意図的に嘘をついているのではなく、学習データのパターンを忠実に再現しようとした結果です。 Hallucinationのメカニズム この現象は、AIの「hallucination(幻覚、虚偽の報告)」の一種です: 学習データ内の日付の分布: 学習データ内で最も頻繁に「今日」として言及された日付 パターンの強化: 訓練中に繰り返し学習された日付が強く記憶される 現実との乖離: 実際の現在日とは無関係に、学習データのパターンを再現してしまう 実例:各AIモデルの状況 Gemini(Google) Redditの報告によると: