AI

SHIFT AIとは?情弱向けの詐欺?地方エンジニアに必要かを冷静に評価

  • POST
はじめに 近年、生成AIの技術は急速に発展しており、ビジネスの現場においてもAI活用スキルの重要性が高まっています。 このような背景から、AIスキルを学ぶためのスクールやコミュニティサービスが数多く登場しています。 一方で、AI副業スクールや情報商材型サービスの中には、誇大広告や高額請求など、問題のあるものも少なくありません。 「誰でも簡単に稼げる」といった謳い文句で受講生を集め、実際には期待した成果が得られないケースも報告されています。 こうした状況の中で、SHIFT AIというサービスについて、「情報弱者向けの詐欺ではないか」といった声も聞かれます。 しかし、一方的な批判や評判だけで判断するのではなく、サービスの実態を冷静に分析することが重要です。 本記事では、SHIFT AIの特徴や業界の問題点を踏まえた上で、特に地方エンジニアの方々にとって必要なサービスなのかを客観的に評価していきます。 結論 情報収集が苦手な方には必要なサービスです。 ただし、自走できるエンジニアの方には必ずしも必須ではありません。 SHIFT AIの概要 SHIFT AIは、生成AI活用に特化した学習コミュニティ型のサービスです。 主な特徴は以下の通りです。 生成AIの基礎からビジネス活用まで幅広く学習可能 オンライン講義とコミュニティ運営を組み合わせた形式 セミナーやイベントの定期開催 継続的な学習を前提とした設計 単発のスクールというよりは、「AI活用コミュニティ」に近い性質を持っています。 最近では、地方を含む全国各地でワークショップなども開催されています。 AIスクール業界の問題点 近年、AI副業スクールや情報商材型サービスの中には、以下のような問題を抱えているものがあります。 「誰でも稼げる」といった誇大広告 ※スキルを取得しても実際には案件が獲得できないと収益には繋がりません 数十万円という高額な料金設定 返金が困難な契約条件 実務スキルに直結しない学習内容 学習コンテンツが膨大すぎて、全てを学習することが困難 勧誘セミナーが詐欺まがいの手法を用いている(限定料金など損失回避の原理を利用した手法) このような背景から、AIスクールには詐欺が多いといった批判的な意見も少なくありません。 被害事例動画(50万円の損失例): このように、業界全体の信頼性は必ずしも高いとは言えない状況です。 情報収集が苦手な方には必要なサービス Shift AI代表の木内翔大氏とひろゆき氏の対談動画では、AI失業、AI人材の価値、そして今後のキャリア戦略といったテーマについて議論されています。 木内氏は過去に侍エンジニアなど、プログラミングスクールを運営していた人物として知られています。 動画内では、「情報弱者向けビジネス」であるという批判に対して、「情報弱者を情報強者にすることこそが教育ビジネスの本質である」 という理念のもとに活動されていると発言されています。 SHIFT AIは詐欺なのか? 現時点では、「典型的な詐欺」と断定できる構造ではありません。 実在する企業であり、実名の代表者がおり、公の活動や対談実績も確認できます。 ただし、以下の点には注意が必要です。 料金は決して安くありません 成果保証はありません 継続的な学習を前提とした設計になっています 期待値が高すぎると失望する可能性があります 短期間で収益を上げたいとお考えの方には不向きなサービスと言えるでしょう。

Claude Codeとは? - AnthropicのCLI型AIコーディングツールについて紹介

  • POST
はじめに 本記事では、Claude Codeについてご紹介いたします。 近年、AIによるコーディング支援は急速に発展しており、Anthropic社が提供するClaude Codeはその最前線に位置しています。 従来の「エディタ連携型(VS Code拡張など)」とは異なり、CLI(Command Line Interface)ベースで動作する点が大きな特徴です。 Claude Codeとは Claude Codeは、2025年5月22日にAnthropic社から提供されたCLI型のAIコーディングツールです。 ターミナル上で自然言語を入力すると、AIがコードベースを解析し、以下のような操作をサポートします。 新機能の実装 バグ修正 リファクタリング マルチファイル編集 👉 公式ドキュメント: Anthropic公式ドキュメント: Claude Code概要 Claude CodeがCLIで提供されている背景 Claude Codeは以下の開発コンセプトで提供されています。 IDE依存の回避 開発者によって使用するIDE(VS Code、Xcode、Vimなど)は異なります。 すべてのIDEにAI機能を実装することは現実的ではないため、CLI形式にすることで全ての環境で共通利用を可能にしています。 進化スピードへの柔軟な対応 GUIベースの開発支援ツールはアップデートに時間がかかる傾向があります。 モデルの進化に追随しやすいCLI形式を採用することで、俊敏な更新や適応が可能となっています。 将来的にはIDE自体が不要となる可能性も見据えています。 Claude CodeのようなCLIが注目されている背景には、以下のようCLIならではの恩恵が大きいことがあげられます。 環境依存がないため、OSやエディタを問わず使用可能 コマンドラインベースのため、GUIよりも軽量で動作が高速 Claude CodeとCursorなどのAIエディタとの比較 AIエディタだと変更された箇所がエディタ上で可視化されるので、どのファイルのどの部分が変更されたのかすぐにわかります。 一方、Claude Codeの場合はCLIのため、どこが変更されたか把握しづらいという印象です。 特に大規模なコード生成が実行された場合、変更箇所のレビューに難儀することがあります。 Claude Codeをインストール 以下のサイトをもとに各OSに応じてインストールします。 Anthropic公式ドキュメント: Claude Code Setup

生成系AIが正しいナレッジカットオフを答えない理由

  • POST
はじめに 生成系AI(LLM:Large Language Model)を使っていて、「あなたのナレッジカットオフは?」と聞いたときに、明らかに間違った日付を返されたことはありませんか? 例えば、Redditのユーザー報告によると、Geminiに英語で「今日の日付は?」と聞くと「2024年6月11日」と答えることがあるそうです。これは一見すると単純なバグのように見えますが、実はLLMの構造的な特性によるものです。 この記事では、AIの「ナレッジカットオフ」と「トレーニングカットオフ」の違い、そしてなぜAIが現在の日付について虚偽の報告(hallucination)をしてしまうのかを解説します。 ナレッジカットオフとトレーニングカットオフの違い まず、2つの重要な概念を理解する必要があります。 トレーニングカットオフ(Training Data Cutoff) トレーニングカットオフとは、AIモデルの学習に使用されたデータの最終日付です。例えば: あるモデルが「2025年7月までのデータ」で訓練された場合、トレーニングカットオフは2025年7月となります この範囲内のデータは、すべてモデルの学習に使用されたことを意味します ナレッジカットオフ(Reliable Knowledge Cutoff) 一方、ナレッジカットオフは、モデルの知識が最も広範で信頼できる日付を指します。 トレーニングデータに含まれていても、すべての情報が同じレベルで学習されるわけではありません モデルが最も確実に知識を持っているのは、ナレッジカットオフまでの情報です 具体例:Claude Sonnet 4.5 Anthropicの透明性レポートによると、Claude Sonnet 4.5は以下のように定義されています: トレーニングカットオフ: 2025年7月 ナレッジカットオフ: 2025年1月 つまり、7月までのデータで訓練されていますが、最も信頼できる知識は1月までということです。これは、後半のデータが学習に含まれていても、その範囲の情報はまだ十分に網羅的ではない、または検証が不十分であることを示しています。 なぜAIは今日の日付を間違えるのか システム時刻へのアクセスがない LLMは、リアルタイムのシステム時刻にアクセスできません。これが問題の根本原因です。 通常のプログラムであれば、OSのシステム時刻APIを呼び出せば現在の日付を正確に取得できます。しかし、LLMは以下の理由でこれができません: 純粋な言語モデル: LLMは入力されたテキストに基づいて次のテキストを予測するだけ 外部APIへのアクセス制限: セキュリティやアーキテクチャ上の理由で、外部システムへの直接アクセスは制限されている 学習データからの推論: 「今日は何日ですか?」という質問に対して、学習データ内のパターンから「それらしい答え」を生成してしまう トレーニングデータの模倣 LLMは、学習データ内に含まれる「今日は〇〇年△△月××日です」という記述を模倣して答えを生成します。 例えば: 学習データに「今日は2024年6月11日です」という記述が多く含まれていた場合 モデルは「今日の日付を聞かれたら、2024年6月11日と答えるのが適切」と学習してしまう可能性がある これは、モデルが意図的に嘘をついているのではなく、学習データのパターンを忠実に再現しようとした結果です。 Hallucinationのメカニズム この現象は、AIの「hallucination(幻覚、虚偽の報告)」の一種です: 学習データ内の日付の分布: 学習データ内で最も頻繁に「今日」として言及された日付 パターンの強化: 訓練中に繰り返し学習された日付が強く記憶される 現実との乖離: 実際の現在日とは無関係に、学習データのパターンを再現してしまう 実例:各AIモデルの状況 Gemini(Google) Redditの報告によると: