
優れたツールが壊れるとき:AIツールの毒化と、AIが二重スパイとして振る舞うのを防ぐ方法
AI支援開発(あるいはより現代的な表現である「振動コーディング」)は、コード作成に多大な変革をもたらしている。 ベテラン開発者はこれらのツールを大量に採用しており、これまで独自のソフトウェアを作成したいと望みながらも必要な経験が不足していた私たちも、コストと時間の面で実現不可能だったアセットの作成に活用しています。この技術は新たなイノベーションの時代の幕開けを約束する一方で、セキュリティリーダーが軽減に努めている一連の新たな脆弱性とリスクプロファイルをもたらしています。
InvariantLabsによる最近の発見により、Model Context Protocol(MCP)に重大な脆弱性が確認された。MCPはAPIに類似したフレームワークであり、強力な人工知能ツールが自律的に他のソフトウェアやデータベースと相互作用することを可能にする。これにより「ツールの毒殺攻撃」と呼ばれる新たな脆弱性カテゴリーが発生し、企業にとって特に深刻な被害をもたらす可能性がある。 WindsurfやCursorといった主要なAIツールもこの脆弱性の影響を受け、数百万のユーザーを抱える中、この新たなセキュリティ問題への認識と対処能力が極めて重要となっている。
現状では、これらのツールの出力結果は、AWSとIntuitのセキュリティ研究者であるVineeth Sai NarajalaとIdanHablerによる最近の研究論文で指摘されているように、企業向けと認定するには安全性が不十分です:AIシステムが自律性を高め、MCPなどを通じて外部ツールやリアルタイムデータと直接やり取りするようになるにつれ、それらの相互作用の安全性を確保することが極めて重要となる。
エージェンシーAIシステムとプロトコルのリスクプロファイルモデルコンテキスト
モデルコンテキストプロトコルは、Anthropicが開発した有用なソフトウェアであり、大規模言語モデル(LLM)のAIエージェントと他のツールとの統合をより良く、よりシームレスに実現します。 これは強力な実用例であり、GitHubのような企業にとって不可欠なSaaSツールと、最先端のAIソリューションを連携させることで、新たな可能性の世界を切り開きます。MCPサーバーを記述するだけで、その動作方法や目的に関するガイドラインの設定作業を開始できます。
実際、MCP技術のセキュリティへの影響は概ね好ましいものである。LLMとセキュリティ専門家が使用する技術とのより直接的な統合の可能性は、無視できないほど魅力的であり、少なくとも各タスクごとにカスタムコードを記述・実装することなく、これまで不可能だったレベルでセキュリティタスクを精密に自動化する可能性を秘めている。 MCPが提供するLLMの相互運用性向上は、企業セキュリティにとって興味深い展望である。なぜなら、データ・ツール・人材間の広範な可視性と接続性は、効果的な防御とセキュリティ計画の基盤となるからだ。
ただし、MCPの使用は、慎重に管理されない限り、他の潜在的な脅威ベクトルを導入し、企業の攻撃対象領域を大幅に拡大する可能性があります。Invariant Labsが指摘するように、ツールによる汚染攻撃は新たな脆弱性カテゴリーを形成し、機密データの流出やAIモデルによる不正な行動を引き起こす可能性があります。そこから派生するセキュリティ上の影響は、非常に不透明で急速に拡大する恐れがあります。
InvariantLabsは、ツールの悪意ある操作が可能な攻撃として、MCPツールの説明文にユーザーには見えないがAIモデルが完全に読み取り(かつ実行)可能な悪意ある指示を含める手法を指摘している。これによりツールはユーザーに知られず、許可されていない悪意ある操作を実行させられる。 この問題は、MCPが全てのツール説明を信頼すべきだという前提に起因しており、攻撃者にとっては格好の標的となる。
侵害されたツールの以下の可能性のある結果を指摘しています:
- AIモデルが機密ファイル(SSHキー、設定ファイル、データベースなど)にアクセスするよう指示する;
- AIに指示し、これらのデータを抽出して送信させる。この環境では、こうした悪意のある行為は本質的に、無自覚なユーザーから隠されている。
- ユーザーが目にしているものとAIモデルの実行内容との間に断絶を生み出す。ツールの引数と結果を、一見単純に見えるユーザーインターフェースの表現の背後に隠すことで実現される。
これは新たな懸念材料となる脆弱性のカテゴリーであり、MCPの利用が必然的に拡大し続ける中で、今後ますます頻繁に目にするようになることはほぼ確実です。企業セキュリティプログラムが進化するにつれ、この脅威を検知・軽減するためには慎重な対策が必要となるため、開発者が解決策の一翼を担えるよう適切に準備することが極めて重要です。
なぜセキュリティの専門家である開発者だけが政府機関のAIツールを活用すべきなのか
AgenticのAIコーディングツールは、AI支援コーディングの次なる進化形と見なされており、ソフトウェア開発における効率性、生産性、柔軟性をさらに高める能力を備えています。文脈や意図を理解する能力が向上したことで特に有用ですが、高速インジェクション、幻覚、攻撃者による行動操作といった脅威に対して無防備ではありません。
開発者は、良質なコード確認と悪質なコード確認の間の防衛ラインであり、セキュリティスキルと批判的思考を維持することは、安全なソフトウェア開発の将来において極めて重要となるでしょう。
AIの結果は決して盲信して実装すべきではなく、この技術が提供する生産性の向上を安全に活用できるのは、批判的思考と文脈的思考を適用するセキュリティの専門家である開発者たちである。ただし、それはペアプログラミング環境に相当する環境において行われるべきであり、そこでは人間の専門家が評価を行い、脅威をモデル化し、最終的にツールが行った作業を承認できる必要がある。
開発者がAIを活用してスキルを向上させ、生産性を高める方法について、こちらで詳細をご覧ください。
実践的な緩和技術と追加の参考文献について、当社の最新研究記事でご覧ください
AIコーディングツールとMCP技術は、サイバーセキュリティの未来において重要な要素となるだろう。しかし、水に飛び込む前に水深を確認することが極めて重要である。
ナラジャラとハブラーの論文は、企業レベルでのMCP導入と継続的なリスク管理のための包括的な緩和戦略を詳述している。最終的には、多層防御とゼロトラストの原則に焦点を当て、この新たなエコシステムがビジネス環境に与える固有のリスクプロファイルを明示的に扱っている。開発者の場合、以下の領域における知識のギャップを埋めることが極めて重要である:
- 認証とアクセス制御:エージェンシー向けAIツールは、人間がエンジニアリング業務に取り組むのと同様に、設定された目標を達成するために問題を解決し自律的に意思決定を行う。 しかし前述の通り、これらのプロセスに対する有資格者の人的監視は不可欠であり、ワークフローでこれらのツールを利用する開発者は、自身が持つアクセス権限、取得または潜在的に公開されるデータ、およびそれらの共有可能性を正確に把握する必要があります。
- 一般的な脅威の検知と軽減:ほとんどのAIプロセスと同様に、ツールの結果における潜在的な欠陥や不正確さを検出するためには、ユーザー自身がタスクを完全に理解している必要があります。開発者は継続的なスキル向上と、そのスキルの検証を受けるべきです。これにより、セキュリティプロセスを効果的に見直し、AIが生成したコードをセキュリティの観点から正確かつ権威を持って検証することが可能となります。
- AIセキュリティポリシーおよびガバナンスとの整合性:開発者は承認済みツールを把握し、スキル向上とツール利用の機会を提供されるべきである。開発者とツールの両方が、コミットが信頼される前にセキュリティベンチマーク評価を受ける必要がある。
最近、振動符号化とAI支援符号化の台頭、および次世代のAI駆動ソフトウェアエンジニア育成に向けた企業の対応策に関する調査研究を発表しました。ぜひご一読いただき、開発チームの強化に向けて本日ご連絡ください。
最高経営責任者(CEO)、会長、および共同設立者

Secure Code Warrior ソフトウェア開発ライフサイクル全体を通じてコードを保護し、サイバーセキュリティを最優先事項とする文化を構築するために、貴組織をSecure Code Warrior 。AppSec管理者、開発者、CISO、セキュリティ関連担当者など、あらゆる立場の方々に対し、不安全なコードに関連するリスクを軽減するお手伝いをいたします。
デモを予約する最高経営責任者(CEO)、会長、および共同設立者
Pieter Danhieuxは、セキュリティコンサルタントとして12年以上の経験を持ち、SANSの主席講師として8年間、組織、システム、個人をターゲットにしてセキュリティの弱点を評価する方法に関する攻撃的なテクニックを教えている、世界的に有名なセキュリティエキスパートです。2016年には、オーストラリアで最もクールな技術者の一人として認められ(Business Insider)、Cyber Security Professional of the Yearを受賞(AISA - Australian Information Security Association)、GSE、CISSP、GCIH、GCFA、GSEC、GPEN、GWAPT、GCIA認定を保有している。


AI支援開発(あるいはより現代的な表現である「振動コーディング」)は、コード作成に多大な変革をもたらしている。 ベテラン開発者はこれらのツールを大量に採用しており、これまで独自のソフトウェアを作成したいと望みながらも必要な経験が不足していた私たちも、コストと時間の面で実現不可能だったアセットの作成に活用しています。この技術は新たなイノベーションの時代の幕開けを約束する一方で、セキュリティリーダーが軽減に努めている一連の新たな脆弱性とリスクプロファイルをもたらしています。
InvariantLabsによる最近の発見により、Model Context Protocol(MCP)に重大な脆弱性が確認された。MCPはAPIに類似したフレームワークであり、強力な人工知能ツールが自律的に他のソフトウェアやデータベースと相互作用することを可能にする。これにより「ツールの毒殺攻撃」と呼ばれる新たな脆弱性カテゴリーが発生し、企業にとって特に深刻な被害をもたらす可能性がある。 WindsurfやCursorといった主要なAIツールもこの脆弱性の影響を受け、数百万のユーザーを抱える中、この新たなセキュリティ問題への認識と対処能力が極めて重要となっている。
現状では、これらのツールの出力結果は、AWSとIntuitのセキュリティ研究者であるVineeth Sai NarajalaとIdanHablerによる最近の研究論文で指摘されているように、企業向けと認定するには安全性が不十分です:AIシステムが自律性を高め、MCPなどを通じて外部ツールやリアルタイムデータと直接やり取りするようになるにつれ、それらの相互作用の安全性を確保することが極めて重要となる。
エージェンシーAIシステムとプロトコルのリスクプロファイルモデルコンテキスト
モデルコンテキストプロトコルは、Anthropicが開発した有用なソフトウェアであり、大規模言語モデル(LLM)のAIエージェントと他のツールとの統合をより良く、よりシームレスに実現します。 これは強力な実用例であり、GitHubのような企業にとって不可欠なSaaSツールと、最先端のAIソリューションを連携させることで、新たな可能性の世界を切り開きます。MCPサーバーを記述するだけで、その動作方法や目的に関するガイドラインの設定作業を開始できます。
実際、MCP技術のセキュリティへの影響は概ね好ましいものである。LLMとセキュリティ専門家が使用する技術とのより直接的な統合の可能性は、無視できないほど魅力的であり、少なくとも各タスクごとにカスタムコードを記述・実装することなく、これまで不可能だったレベルでセキュリティタスクを精密に自動化する可能性を秘めている。 MCPが提供するLLMの相互運用性向上は、企業セキュリティにとって興味深い展望である。なぜなら、データ・ツール・人材間の広範な可視性と接続性は、効果的な防御とセキュリティ計画の基盤となるからだ。
ただし、MCPの使用は、慎重に管理されない限り、他の潜在的な脅威ベクトルを導入し、企業の攻撃対象領域を大幅に拡大する可能性があります。Invariant Labsが指摘するように、ツールによる汚染攻撃は新たな脆弱性カテゴリーを形成し、機密データの流出やAIモデルによる不正な行動を引き起こす可能性があります。そこから派生するセキュリティ上の影響は、非常に不透明で急速に拡大する恐れがあります。
InvariantLabsは、ツールの悪意ある操作が可能な攻撃として、MCPツールの説明文にユーザーには見えないがAIモデルが完全に読み取り(かつ実行)可能な悪意ある指示を含める手法を指摘している。これによりツールはユーザーに知られず、許可されていない悪意ある操作を実行させられる。 この問題は、MCPが全てのツール説明を信頼すべきだという前提に起因しており、攻撃者にとっては格好の標的となる。
侵害されたツールの以下の可能性のある結果を指摘しています:
- AIモデルが機密ファイル(SSHキー、設定ファイル、データベースなど)にアクセスするよう指示する;
- AIに指示し、これらのデータを抽出して送信させる。この環境では、こうした悪意のある行為は本質的に、無自覚なユーザーから隠されている。
- ユーザーが目にしているものとAIモデルの実行内容との間に断絶を生み出す。ツールの引数と結果を、一見単純に見えるユーザーインターフェースの表現の背後に隠すことで実現される。
これは新たな懸念材料となる脆弱性のカテゴリーであり、MCPの利用が必然的に拡大し続ける中で、今後ますます頻繁に目にするようになることはほぼ確実です。企業セキュリティプログラムが進化するにつれ、この脅威を検知・軽減するためには慎重な対策が必要となるため、開発者が解決策の一翼を担えるよう適切に準備することが極めて重要です。
なぜセキュリティの専門家である開発者だけが政府機関のAIツールを活用すべきなのか
AgenticのAIコーディングツールは、AI支援コーディングの次なる進化形と見なされており、ソフトウェア開発における効率性、生産性、柔軟性をさらに高める能力を備えています。文脈や意図を理解する能力が向上したことで特に有用ですが、高速インジェクション、幻覚、攻撃者による行動操作といった脅威に対して無防備ではありません。
開発者は、良質なコード確認と悪質なコード確認の間の防衛ラインであり、セキュリティスキルと批判的思考を維持することは、安全なソフトウェア開発の将来において極めて重要となるでしょう。
AIの結果は決して盲信して実装すべきではなく、この技術が提供する生産性の向上を安全に活用できるのは、批判的思考と文脈的思考を適用するセキュリティの専門家である開発者たちである。ただし、それはペアプログラミング環境に相当する環境において行われるべきであり、そこでは人間の専門家が評価を行い、脅威をモデル化し、最終的にツールが行った作業を承認できる必要がある。
開発者がAIを活用してスキルを向上させ、生産性を高める方法について、こちらで詳細をご覧ください。
実践的な緩和技術と追加の参考文献について、当社の最新研究記事でご覧ください
AIコーディングツールとMCP技術は、サイバーセキュリティの未来において重要な要素となるだろう。しかし、水に飛び込む前に水深を確認することが極めて重要である。
ナラジャラとハブラーの論文は、企業レベルでのMCP導入と継続的なリスク管理のための包括的な緩和戦略を詳述している。最終的には、多層防御とゼロトラストの原則に焦点を当て、この新たなエコシステムがビジネス環境に与える固有のリスクプロファイルを明示的に扱っている。開発者の場合、以下の領域における知識のギャップを埋めることが極めて重要である:
- 認証とアクセス制御:エージェンシー向けAIツールは、人間がエンジニアリング業務に取り組むのと同様に、設定された目標を達成するために問題を解決し自律的に意思決定を行う。 しかし前述の通り、これらのプロセスに対する有資格者の人的監視は不可欠であり、ワークフローでこれらのツールを利用する開発者は、自身が持つアクセス権限、取得または潜在的に公開されるデータ、およびそれらの共有可能性を正確に把握する必要があります。
- 一般的な脅威の検知と軽減:ほとんどのAIプロセスと同様に、ツールの結果における潜在的な欠陥や不正確さを検出するためには、ユーザー自身がタスクを完全に理解している必要があります。開発者は継続的なスキル向上と、そのスキルの検証を受けるべきです。これにより、セキュリティプロセスを効果的に見直し、AIが生成したコードをセキュリティの観点から正確かつ権威を持って検証することが可能となります。
- AIセキュリティポリシーおよびガバナンスとの整合性:開発者は承認済みツールを把握し、スキル向上とツール利用の機会を提供されるべきである。開発者とツールの両方が、コミットが信頼される前にセキュリティベンチマーク評価を受ける必要がある。
最近、振動符号化とAI支援符号化の台頭、および次世代のAI駆動ソフトウェアエンジニア育成に向けた企業の対応策に関する調査研究を発表しました。ぜひご一読いただき、開発チームの強化に向けて本日ご連絡ください。

AI支援開発(あるいはより現代的な表現である「振動コーディング」)は、コード作成に多大な変革をもたらしている。 ベテラン開発者はこれらのツールを大量に採用しており、これまで独自のソフトウェアを作成したいと望みながらも必要な経験が不足していた私たちも、コストと時間の面で実現不可能だったアセットの作成に活用しています。この技術は新たなイノベーションの時代の幕開けを約束する一方で、セキュリティリーダーが軽減に努めている一連の新たな脆弱性とリスクプロファイルをもたらしています。
InvariantLabsによる最近の発見により、Model Context Protocol(MCP)に重大な脆弱性が確認された。MCPはAPIに類似したフレームワークであり、強力な人工知能ツールが自律的に他のソフトウェアやデータベースと相互作用することを可能にする。これにより「ツールの毒殺攻撃」と呼ばれる新たな脆弱性カテゴリーが発生し、企業にとって特に深刻な被害をもたらす可能性がある。 WindsurfやCursorといった主要なAIツールもこの脆弱性の影響を受け、数百万のユーザーを抱える中、この新たなセキュリティ問題への認識と対処能力が極めて重要となっている。
現状では、これらのツールの出力結果は、AWSとIntuitのセキュリティ研究者であるVineeth Sai NarajalaとIdanHablerによる最近の研究論文で指摘されているように、企業向けと認定するには安全性が不十分です:AIシステムが自律性を高め、MCPなどを通じて外部ツールやリアルタイムデータと直接やり取りするようになるにつれ、それらの相互作用の安全性を確保することが極めて重要となる。
エージェンシーAIシステムとプロトコルのリスクプロファイルモデルコンテキスト
モデルコンテキストプロトコルは、Anthropicが開発した有用なソフトウェアであり、大規模言語モデル(LLM)のAIエージェントと他のツールとの統合をより良く、よりシームレスに実現します。 これは強力な実用例であり、GitHubのような企業にとって不可欠なSaaSツールと、最先端のAIソリューションを連携させることで、新たな可能性の世界を切り開きます。MCPサーバーを記述するだけで、その動作方法や目的に関するガイドラインの設定作業を開始できます。
実際、MCP技術のセキュリティへの影響は概ね好ましいものである。LLMとセキュリティ専門家が使用する技術とのより直接的な統合の可能性は、無視できないほど魅力的であり、少なくとも各タスクごとにカスタムコードを記述・実装することなく、これまで不可能だったレベルでセキュリティタスクを精密に自動化する可能性を秘めている。 MCPが提供するLLMの相互運用性向上は、企業セキュリティにとって興味深い展望である。なぜなら、データ・ツール・人材間の広範な可視性と接続性は、効果的な防御とセキュリティ計画の基盤となるからだ。
ただし、MCPの使用は、慎重に管理されない限り、他の潜在的な脅威ベクトルを導入し、企業の攻撃対象領域を大幅に拡大する可能性があります。Invariant Labsが指摘するように、ツールによる汚染攻撃は新たな脆弱性カテゴリーを形成し、機密データの流出やAIモデルによる不正な行動を引き起こす可能性があります。そこから派生するセキュリティ上の影響は、非常に不透明で急速に拡大する恐れがあります。
InvariantLabsは、ツールの悪意ある操作が可能な攻撃として、MCPツールの説明文にユーザーには見えないがAIモデルが完全に読み取り(かつ実行)可能な悪意ある指示を含める手法を指摘している。これによりツールはユーザーに知られず、許可されていない悪意ある操作を実行させられる。 この問題は、MCPが全てのツール説明を信頼すべきだという前提に起因しており、攻撃者にとっては格好の標的となる。
侵害されたツールの以下の可能性のある結果を指摘しています:
- AIモデルが機密ファイル(SSHキー、設定ファイル、データベースなど)にアクセスするよう指示する;
- AIに指示し、これらのデータを抽出して送信させる。この環境では、こうした悪意のある行為は本質的に、無自覚なユーザーから隠されている。
- ユーザーが目にしているものとAIモデルの実行内容との間に断絶を生み出す。ツールの引数と結果を、一見単純に見えるユーザーインターフェースの表現の背後に隠すことで実現される。
これは新たな懸念材料となる脆弱性のカテゴリーであり、MCPの利用が必然的に拡大し続ける中で、今後ますます頻繁に目にするようになることはほぼ確実です。企業セキュリティプログラムが進化するにつれ、この脅威を検知・軽減するためには慎重な対策が必要となるため、開発者が解決策の一翼を担えるよう適切に準備することが極めて重要です。
なぜセキュリティの専門家である開発者だけが政府機関のAIツールを活用すべきなのか
AgenticのAIコーディングツールは、AI支援コーディングの次なる進化形と見なされており、ソフトウェア開発における効率性、生産性、柔軟性をさらに高める能力を備えています。文脈や意図を理解する能力が向上したことで特に有用ですが、高速インジェクション、幻覚、攻撃者による行動操作といった脅威に対して無防備ではありません。
開発者は、良質なコード確認と悪質なコード確認の間の防衛ラインであり、セキュリティスキルと批判的思考を維持することは、安全なソフトウェア開発の将来において極めて重要となるでしょう。
AIの結果は決して盲信して実装すべきではなく、この技術が提供する生産性の向上を安全に活用できるのは、批判的思考と文脈的思考を適用するセキュリティの専門家である開発者たちである。ただし、それはペアプログラミング環境に相当する環境において行われるべきであり、そこでは人間の専門家が評価を行い、脅威をモデル化し、最終的にツールが行った作業を承認できる必要がある。
開発者がAIを活用してスキルを向上させ、生産性を高める方法について、こちらで詳細をご覧ください。
実践的な緩和技術と追加の参考文献について、当社の最新研究記事でご覧ください
AIコーディングツールとMCP技術は、サイバーセキュリティの未来において重要な要素となるだろう。しかし、水に飛び込む前に水深を確認することが極めて重要である。
ナラジャラとハブラーの論文は、企業レベルでのMCP導入と継続的なリスク管理のための包括的な緩和戦略を詳述している。最終的には、多層防御とゼロトラストの原則に焦点を当て、この新たなエコシステムがビジネス環境に与える固有のリスクプロファイルを明示的に扱っている。開発者の場合、以下の領域における知識のギャップを埋めることが極めて重要である:
- 認証とアクセス制御:エージェンシー向けAIツールは、人間がエンジニアリング業務に取り組むのと同様に、設定された目標を達成するために問題を解決し自律的に意思決定を行う。 しかし前述の通り、これらのプロセスに対する有資格者の人的監視は不可欠であり、ワークフローでこれらのツールを利用する開発者は、自身が持つアクセス権限、取得または潜在的に公開されるデータ、およびそれらの共有可能性を正確に把握する必要があります。
- 一般的な脅威の検知と軽減:ほとんどのAIプロセスと同様に、ツールの結果における潜在的な欠陥や不正確さを検出するためには、ユーザー自身がタスクを完全に理解している必要があります。開発者は継続的なスキル向上と、そのスキルの検証を受けるべきです。これにより、セキュリティプロセスを効果的に見直し、AIが生成したコードをセキュリティの観点から正確かつ権威を持って検証することが可能となります。
- AIセキュリティポリシーおよびガバナンスとの整合性:開発者は承認済みツールを把握し、スキル向上とツール利用の機会を提供されるべきである。開発者とツールの両方が、コミットが信頼される前にセキュリティベンチマーク評価を受ける必要がある。
最近、振動符号化とAI支援符号化の台頭、および次世代のAI駆動ソフトウェアエンジニア育成に向けた企業の対応策に関する調査研究を発表しました。ぜひご一読いただき、開発チームの強化に向けて本日ご連絡ください。

以下のリンクをクリックして、このリソースのPDFをダウンロードしてください。
Secure Code Warrior ソフトウェア開発ライフサイクル全体を通じてコードを保護し、サイバーセキュリティを最優先事項とする文化を構築するために、貴組織をSecure Code Warrior 。AppSec管理者、開発者、CISO、セキュリティ関連担当者など、あらゆる立場の方々に対し、不安全なコードに関連するリスクを軽減するお手伝いをいたします。
報告書を見るデモを予約する最高経営責任者(CEO)、会長、および共同設立者
Pieter Danhieuxは、セキュリティコンサルタントとして12年以上の経験を持ち、SANSの主席講師として8年間、組織、システム、個人をターゲットにしてセキュリティの弱点を評価する方法に関する攻撃的なテクニックを教えている、世界的に有名なセキュリティエキスパートです。2016年には、オーストラリアで最もクールな技術者の一人として認められ(Business Insider)、Cyber Security Professional of the Yearを受賞(AISA - Australian Information Security Association)、GSE、CISSP、GCIH、GCFA、GSEC、GPEN、GWAPT、GCIA認定を保有している。
AI支援開発(あるいはより現代的な表現である「振動コーディング」)は、コード作成に多大な変革をもたらしている。 ベテラン開発者はこれらのツールを大量に採用しており、これまで独自のソフトウェアを作成したいと望みながらも必要な経験が不足していた私たちも、コストと時間の面で実現不可能だったアセットの作成に活用しています。この技術は新たなイノベーションの時代の幕開けを約束する一方で、セキュリティリーダーが軽減に努めている一連の新たな脆弱性とリスクプロファイルをもたらしています。
InvariantLabsによる最近の発見により、Model Context Protocol(MCP)に重大な脆弱性が確認された。MCPはAPIに類似したフレームワークであり、強力な人工知能ツールが自律的に他のソフトウェアやデータベースと相互作用することを可能にする。これにより「ツールの毒殺攻撃」と呼ばれる新たな脆弱性カテゴリーが発生し、企業にとって特に深刻な被害をもたらす可能性がある。 WindsurfやCursorといった主要なAIツールもこの脆弱性の影響を受け、数百万のユーザーを抱える中、この新たなセキュリティ問題への認識と対処能力が極めて重要となっている。
現状では、これらのツールの出力結果は、AWSとIntuitのセキュリティ研究者であるVineeth Sai NarajalaとIdanHablerによる最近の研究論文で指摘されているように、企業向けと認定するには安全性が不十分です:AIシステムが自律性を高め、MCPなどを通じて外部ツールやリアルタイムデータと直接やり取りするようになるにつれ、それらの相互作用の安全性を確保することが極めて重要となる。
エージェンシーAIシステムとプロトコルのリスクプロファイルモデルコンテキスト
モデルコンテキストプロトコルは、Anthropicが開発した有用なソフトウェアであり、大規模言語モデル(LLM)のAIエージェントと他のツールとの統合をより良く、よりシームレスに実現します。 これは強力な実用例であり、GitHubのような企業にとって不可欠なSaaSツールと、最先端のAIソリューションを連携させることで、新たな可能性の世界を切り開きます。MCPサーバーを記述するだけで、その動作方法や目的に関するガイドラインの設定作業を開始できます。
実際、MCP技術のセキュリティへの影響は概ね好ましいものである。LLMとセキュリティ専門家が使用する技術とのより直接的な統合の可能性は、無視できないほど魅力的であり、少なくとも各タスクごとにカスタムコードを記述・実装することなく、これまで不可能だったレベルでセキュリティタスクを精密に自動化する可能性を秘めている。 MCPが提供するLLMの相互運用性向上は、企業セキュリティにとって興味深い展望である。なぜなら、データ・ツール・人材間の広範な可視性と接続性は、効果的な防御とセキュリティ計画の基盤となるからだ。
ただし、MCPの使用は、慎重に管理されない限り、他の潜在的な脅威ベクトルを導入し、企業の攻撃対象領域を大幅に拡大する可能性があります。Invariant Labsが指摘するように、ツールによる汚染攻撃は新たな脆弱性カテゴリーを形成し、機密データの流出やAIモデルによる不正な行動を引き起こす可能性があります。そこから派生するセキュリティ上の影響は、非常に不透明で急速に拡大する恐れがあります。
InvariantLabsは、ツールの悪意ある操作が可能な攻撃として、MCPツールの説明文にユーザーには見えないがAIモデルが完全に読み取り(かつ実行)可能な悪意ある指示を含める手法を指摘している。これによりツールはユーザーに知られず、許可されていない悪意ある操作を実行させられる。 この問題は、MCPが全てのツール説明を信頼すべきだという前提に起因しており、攻撃者にとっては格好の標的となる。
侵害されたツールの以下の可能性のある結果を指摘しています:
- AIモデルが機密ファイル(SSHキー、設定ファイル、データベースなど)にアクセスするよう指示する;
- AIに指示し、これらのデータを抽出して送信させる。この環境では、こうした悪意のある行為は本質的に、無自覚なユーザーから隠されている。
- ユーザーが目にしているものとAIモデルの実行内容との間に断絶を生み出す。ツールの引数と結果を、一見単純に見えるユーザーインターフェースの表現の背後に隠すことで実現される。
これは新たな懸念材料となる脆弱性のカテゴリーであり、MCPの利用が必然的に拡大し続ける中で、今後ますます頻繁に目にするようになることはほぼ確実です。企業セキュリティプログラムが進化するにつれ、この脅威を検知・軽減するためには慎重な対策が必要となるため、開発者が解決策の一翼を担えるよう適切に準備することが極めて重要です。
なぜセキュリティの専門家である開発者だけが政府機関のAIツールを活用すべきなのか
AgenticのAIコーディングツールは、AI支援コーディングの次なる進化形と見なされており、ソフトウェア開発における効率性、生産性、柔軟性をさらに高める能力を備えています。文脈や意図を理解する能力が向上したことで特に有用ですが、高速インジェクション、幻覚、攻撃者による行動操作といった脅威に対して無防備ではありません。
開発者は、良質なコード確認と悪質なコード確認の間の防衛ラインであり、セキュリティスキルと批判的思考を維持することは、安全なソフトウェア開発の将来において極めて重要となるでしょう。
AIの結果は決して盲信して実装すべきではなく、この技術が提供する生産性の向上を安全に活用できるのは、批判的思考と文脈的思考を適用するセキュリティの専門家である開発者たちである。ただし、それはペアプログラミング環境に相当する環境において行われるべきであり、そこでは人間の専門家が評価を行い、脅威をモデル化し、最終的にツールが行った作業を承認できる必要がある。
開発者がAIを活用してスキルを向上させ、生産性を高める方法について、こちらで詳細をご覧ください。
実践的な緩和技術と追加の参考文献について、当社の最新研究記事でご覧ください
AIコーディングツールとMCP技術は、サイバーセキュリティの未来において重要な要素となるだろう。しかし、水に飛び込む前に水深を確認することが極めて重要である。
ナラジャラとハブラーの論文は、企業レベルでのMCP導入と継続的なリスク管理のための包括的な緩和戦略を詳述している。最終的には、多層防御とゼロトラストの原則に焦点を当て、この新たなエコシステムがビジネス環境に与える固有のリスクプロファイルを明示的に扱っている。開発者の場合、以下の領域における知識のギャップを埋めることが極めて重要である:
- 認証とアクセス制御:エージェンシー向けAIツールは、人間がエンジニアリング業務に取り組むのと同様に、設定された目標を達成するために問題を解決し自律的に意思決定を行う。 しかし前述の通り、これらのプロセスに対する有資格者の人的監視は不可欠であり、ワークフローでこれらのツールを利用する開発者は、自身が持つアクセス権限、取得または潜在的に公開されるデータ、およびそれらの共有可能性を正確に把握する必要があります。
- 一般的な脅威の検知と軽減:ほとんどのAIプロセスと同様に、ツールの結果における潜在的な欠陥や不正確さを検出するためには、ユーザー自身がタスクを完全に理解している必要があります。開発者は継続的なスキル向上と、そのスキルの検証を受けるべきです。これにより、セキュリティプロセスを効果的に見直し、AIが生成したコードをセキュリティの観点から正確かつ権威を持って検証することが可能となります。
- AIセキュリティポリシーおよびガバナンスとの整合性:開発者は承認済みツールを把握し、スキル向上とツール利用の機会を提供されるべきである。開発者とツールの両方が、コミットが信頼される前にセキュリティベンチマーク評価を受ける必要がある。
最近、振動符号化とAI支援符号化の台頭、および次世代のAI駆動ソフトウェアエンジニア育成に向けた企業の対応策に関する調査研究を発表しました。ぜひご一読いただき、開発チームの強化に向けて本日ご連絡ください。
始めるためのリソース
Trust Agent:AI - Secure and scale AI-Drive development
AI is writing code. Who’s governing it? With up to 50% of AI-generated code containing security weaknesses, managing AI risk is critical. Discover how SCW's Trust Agent: AI provides the real-time visibility, proactive governance, and targeted upskilling needed to scale AI-driven development securely.
OpenText アプリケーションセキュリティのパワー + Secure Code Warrior
OpenText Application Security and Secure Code Warrior combine vulnerability detection with AI Software Governance and developer capability. Together, they help organizations reduce risk, strengthen secure coding practices, and confidently adopt AI-driven development.
Secure Code Warrior corporate overview
Secure Code Warrior is an AI Software Governance platform designed to enable organizations to safely adopt AI-driven development by bridging the gap between development velocity and enterprise security. The platform addresses the "Visibility Gap," where security teams often lack insights into shadow AI coding tools and the origins of production code.





.png)