
ソフトウェア開発にエージェント型AIを早く導入しよう!(ネタバレ: たぶんやめた方がいい)
サイバーセキュリティの専門家として、今まさに誰もがエージェント型AIのハイパードライブに突入している。さて、私たちの多くがAIセキュリティの水晶玉の中で見てきたことが、今や突然現実のものとなっている。
11月14日(金)、Anthropic社(人気のクロード・コード・ツールのおかげで、世界で最も有名なLLMベンダーの1つ)は、2025年9月に彼らが観測した、大手ハイテク企業、金融機関、化学製造会社から政府機関までを標的としたサイバー事件に関する画期的な論文を発表した。
では、この騒ぎは一体何なのだろうか?平たく言えば、高度な脅威行為者(国家とされる)が、クロード・コードと開発者環境のさまざまなツールを使用し、モデル・コンテキスト・プロトコル(MCP)システムを活用して、ほぼ自律的に、大規模に、良識あるオープンソースのハッキング・ツールを使用して、慎重に選ばれた企業をターゲットにした。30以上の攻撃が試みられ、いくつかは成功し、AIエージェントが人間の介入をほとんど受けずに壊滅的な侵害を実行できることが証明された。
先月、VS Code拡張機能を標的とした初の自己増殖型ワームであるGlassWormがKoi Securityによって特定された。後者は新しい攻撃ベクトルではないが、コーディング拡張機能(MCPサーバーを含む)には新しい波が押し寄せており、一見すると良性の機能を備えているが、その裏側では開発者のエンドポイントを迅速に危険にさらす可能性のあるさまざまな悪意のある活動が行われている。
そろそろペースを落とし、深呼吸をし、この新たな脅威のプロファイルから身を守る最善の方法を考え出すときなのかもしれない。
高速AIエージェントからシステムを守る
Anthropic社が最近発表した論文は、AIが分散型リスクを劇的に加速・増幅させる可能性を示すことで、セキュリティ・コミュニティの多くの人々が長年抱いてきた懸念を裏付けるような、強力な新たな脅威を浮き彫りにしている。この進展は、悪意ある行為者にさらなる優位性を与えるものであり、平均的な企業における技術の乱立を管理する、燃え尽き、伸び悩んだセキュリティ担当者よりも、彼らがすでに優位に立っていることを考えると、気が狂いそうになる。
要するに、国家に支援された攻撃者たちは、クロード・コードのモデルを "脱獄 "することに成功したのだ。彼らはAIをだまし、その洗練されたセキュリティ・プロトコルを回避して敵対的な作戦を実行することに成功した。いったん侵害されると、不正なAIエージェントはMCPアクセス権を利用して、さまざまな企業システムやツールに急速に侵入した。そして、最も高度な人間のハッキング集団でも不可能な時間枠で、標的組織内の機密性の高いデータベースを特定し、ピンポイントで突き止めた。
包括的な脆弱性テスト、悪意あるコードの自動生成、さらにはシステム・スキャンのログや個人を特定できる情報(PII)の取得に成功した攻撃の自己文書化などである。
セキュリティのベテランにとって、これは正真正銘の悪夢のシナリオだ。この種のAIを搭載した攻撃ベクトルの圧倒的なスピードと破壊力に、人間のチームが太刀打ちできるわけがない。
開発者のエンドポイントと新たなAIエコシステムは新たな攻撃ベクトルを提供する
古典的なVSCode、JetBrainsのIntelliJ、Eclipse、あるいは新しいCline、Windsurf、Cursorなど、どの開発者も独自のIDEを好み、そのほとんどに、ダウンロードしてインストールできる拡張機能を提供するAppマーケットプレイスがある。これらの拡張機能は、悪意のあるアクティビティについて精査されることはほとんどなく、通常、過剰に許可されて出荷され、ファイルにアクセスできるサンドボックス環境にアクセスできる。
これらの環境は現在、すべてAI機能、AIエージェント、そしてこれらのエージェントが使用できるさまざまな新しいツール(たとえばMCPサーバー)を統合している。多くの場合、これらはすべてマーケットプレイスを通じて公開され、開発者は誰でも新しいツールをリリースすることができる。そして、ご想像の通り、これらのMCPサーバーは、多くの場合、プロンプト・インジェクションに対して最も脆弱なAI環境を通じて、システム上でコマンドの読み取り、書き込み、実行を行うことができる。何が悪いのだろうか?
AIツールのトレーサビリティと観測可能性の譲れない必要性
複雑でありながらシンプルなのだ:もしCISOが、どの開発者がどのAIツールを使っているのか、どのコードがコミットされているのか、どのリポジトリが人間とAIのコラボレーションによって拡張されているのかを把握していないとしたら、膨大なデータセットが欠落しており、観測可能性を昨日までに改善する必要がある。
AI コーディングアシスタントと MCP サーバの急速な統合は、現在、大多数の開発者によって活用されているが、SDLC 内に重大なセキュリティの盲点を生み出している。そのデータは驚くべきものだ。機能的に正しい LLM が生成したコードの最大 50%にセキュリティバグが含まれていることが判明しているが、適切な観測可能性がないため、CISO と AppSec チームは、導入されるこの高リスクのコードの膨大な量とソースに関する実用的な洞察を欠いている。このトレーサビリティの致命的な欠如は、ポリシーの実施とリスク軽減という形で効果的なAIガバナンスを機能的に不可能にする。
AIがもたらす莫大な生産性向上を安全に最大化するために、組織はAI攻撃対象領域を完全に深く可視化するソリューションを義務付ける必要があります。Secure Code Warrior 、SCW Trust Agent:AIをクローズド・ベータで提供しています。この機能は、開発者のローカル・マシン上でAIが生成したコード・トラフィック(MCPサーバーを含む)をリアルタイムでアクティブに監視し、実際のソフトウェア・リポジトリへのプル・リクエストやコミットを通じてIDEがそれを追跡することで、深い観測可能性を提供します。正確なセキュリティ・トレーサビリティは、使用される特定のAIコーディング・ツールとLLMモデル、対象となるコード・リポジトリ、そして最も重要なこととして、貢献した開発者の測定されたセキュア・コーディングの熟練度という3つの重要なシグナルを相関させることによってのみ達成される。
この検証可能な相関関係の連鎖を確立することによってのみ、組織は、導入される実際のセキュリティリスクを正確にベンチマークし、堅牢なポリシーの実施を自動化し、AI対応開発者が既存のガードレールをうまく回避する前に、必須のセキュアコーディング標準を満たすようにすることができる。
もっと詳しく知りたい方、AIガバナンスのデモをご覧になりたい方、ベータプログラムへの参加をご希望の方は、私たちにご連絡ください。
最高経営責任者(CEO)、会長、および共同設立者

Secure Code Warrior は、ソフトウェア開発ライフサイクル全体にわたってコードを保護し、サイバーセキュリティを最優先とする企業文化を創造するために、お客様の組織を支援します。AppSec マネージャー、開発者、CISO、またはセキュリティに関わるすべての人が、安全でないコードに関連するリスクを減らすことができるよう、支援します。
デモを予約する最高経営責任者(CEO)、会長、および共同設立者
Pieter Danhieuxは、セキュリティコンサルタントとして12年以上の経験を持ち、SANSの主席講師として8年間、組織、システム、個人をターゲットにしてセキュリティの弱点を評価する方法に関する攻撃的なテクニックを教えている、世界的に有名なセキュリティエキスパートです。2016年には、オーストラリアで最もクールな技術者の一人として認められ(Business Insider)、Cyber Security Professional of the Yearを受賞(AISA - Australian Information Security Association)、GSE、CISSP、GCIH、GCFA、GSEC、GPEN、GWAPT、GCIA認定を保有している。


サイバーセキュリティの専門家として、今まさに誰もがエージェント型AIのハイパードライブに突入している。さて、私たちの多くがAIセキュリティの水晶玉の中で見てきたことが、今や突然現実のものとなっている。
11月14日(金)、Anthropic社(人気のクロード・コード・ツールのおかげで、世界で最も有名なLLMベンダーの1つ)は、2025年9月に彼らが観測した、大手ハイテク企業、金融機関、化学製造会社から政府機関までを標的としたサイバー事件に関する画期的な論文を発表した。
では、この騒ぎは一体何なのだろうか?平たく言えば、高度な脅威行為者(国家とされる)が、クロード・コードと開発者環境のさまざまなツールを使用し、モデル・コンテキスト・プロトコル(MCP)システムを活用して、ほぼ自律的に、大規模に、良識あるオープンソースのハッキング・ツールを使用して、慎重に選ばれた企業をターゲットにした。30以上の攻撃が試みられ、いくつかは成功し、AIエージェントが人間の介入をほとんど受けずに壊滅的な侵害を実行できることが証明された。
先月、VS Code拡張機能を標的とした初の自己増殖型ワームであるGlassWormがKoi Securityによって特定された。後者は新しい攻撃ベクトルではないが、コーディング拡張機能(MCPサーバーを含む)には新しい波が押し寄せており、一見すると良性の機能を備えているが、その裏側では開発者のエンドポイントを迅速に危険にさらす可能性のあるさまざまな悪意のある活動が行われている。
そろそろペースを落とし、深呼吸をし、この新たな脅威のプロファイルから身を守る最善の方法を考え出すときなのかもしれない。
高速AIエージェントからシステムを守る
Anthropic社が最近発表した論文は、AIが分散型リスクを劇的に加速・増幅させる可能性を示すことで、セキュリティ・コミュニティの多くの人々が長年抱いてきた懸念を裏付けるような、強力な新たな脅威を浮き彫りにしている。この進展は、悪意ある行為者にさらなる優位性を与えるものであり、平均的な企業における技術の乱立を管理する、燃え尽き、伸び悩んだセキュリティ担当者よりも、彼らがすでに優位に立っていることを考えると、気が狂いそうになる。
要するに、国家に支援された攻撃者たちは、クロード・コードのモデルを "脱獄 "することに成功したのだ。彼らはAIをだまし、その洗練されたセキュリティ・プロトコルを回避して敵対的な作戦を実行することに成功した。いったん侵害されると、不正なAIエージェントはMCPアクセス権を利用して、さまざまな企業システムやツールに急速に侵入した。そして、最も高度な人間のハッキング集団でも不可能な時間枠で、標的組織内の機密性の高いデータベースを特定し、ピンポイントで突き止めた。
包括的な脆弱性テスト、悪意あるコードの自動生成、さらにはシステム・スキャンのログや個人を特定できる情報(PII)の取得に成功した攻撃の自己文書化などである。
セキュリティのベテランにとって、これは正真正銘の悪夢のシナリオだ。この種のAIを搭載した攻撃ベクトルの圧倒的なスピードと破壊力に、人間のチームが太刀打ちできるわけがない。
開発者のエンドポイントと新たなAIエコシステムは新たな攻撃ベクトルを提供する
古典的なVSCode、JetBrainsのIntelliJ、Eclipse、あるいは新しいCline、Windsurf、Cursorなど、どの開発者も独自のIDEを好み、そのほとんどに、ダウンロードしてインストールできる拡張機能を提供するAppマーケットプレイスがある。これらの拡張機能は、悪意のあるアクティビティについて精査されることはほとんどなく、通常、過剰に許可されて出荷され、ファイルにアクセスできるサンドボックス環境にアクセスできる。
これらの環境は現在、すべてAI機能、AIエージェント、そしてこれらのエージェントが使用できるさまざまな新しいツール(たとえばMCPサーバー)を統合している。多くの場合、これらはすべてマーケットプレイスを通じて公開され、開発者は誰でも新しいツールをリリースすることができる。そして、ご想像の通り、これらのMCPサーバーは、多くの場合、プロンプト・インジェクションに対して最も脆弱なAI環境を通じて、システム上でコマンドの読み取り、書き込み、実行を行うことができる。何が悪いのだろうか?
AIツールのトレーサビリティと観測可能性の譲れない必要性
複雑でありながらシンプルなのだ:もしCISOが、どの開発者がどのAIツールを使っているのか、どのコードがコミットされているのか、どのリポジトリが人間とAIのコラボレーションによって拡張されているのかを把握していないとしたら、膨大なデータセットが欠落しており、観測可能性を昨日までに改善する必要がある。
AI コーディングアシスタントと MCP サーバの急速な統合は、現在、大多数の開発者によって活用されているが、SDLC 内に重大なセキュリティの盲点を生み出している。そのデータは驚くべきものだ。機能的に正しい LLM が生成したコードの最大 50%にセキュリティバグが含まれていることが判明しているが、適切な観測可能性がないため、CISO と AppSec チームは、導入されるこの高リスクのコードの膨大な量とソースに関する実用的な洞察を欠いている。このトレーサビリティの致命的な欠如は、ポリシーの実施とリスク軽減という形で効果的なAIガバナンスを機能的に不可能にする。
AIがもたらす莫大な生産性向上を安全に最大化するために、組織はAI攻撃対象領域を完全に深く可視化するソリューションを義務付ける必要があります。Secure Code Warrior 、SCW Trust Agent:AIをクローズド・ベータで提供しています。この機能は、開発者のローカル・マシン上でAIが生成したコード・トラフィック(MCPサーバーを含む)をリアルタイムでアクティブに監視し、実際のソフトウェア・リポジトリへのプル・リクエストやコミットを通じてIDEがそれを追跡することで、深い観測可能性を提供します。正確なセキュリティ・トレーサビリティは、使用される特定のAIコーディング・ツールとLLMモデル、対象となるコード・リポジトリ、そして最も重要なこととして、貢献した開発者の測定されたセキュア・コーディングの熟練度という3つの重要なシグナルを相関させることによってのみ達成される。
この検証可能な相関関係の連鎖を確立することによってのみ、組織は、導入される実際のセキュリティリスクを正確にベンチマークし、堅牢なポリシーの実施を自動化し、AI対応開発者が既存のガードレールをうまく回避する前に、必須のセキュアコーディング標準を満たすようにすることができる。
もっと詳しく知りたい方、AIガバナンスのデモをご覧になりたい方、ベータプログラムへの参加をご希望の方は、私たちにご連絡ください。

サイバーセキュリティの専門家として、今まさに誰もがエージェント型AIのハイパードライブに突入している。さて、私たちの多くがAIセキュリティの水晶玉の中で見てきたことが、今や突然現実のものとなっている。
11月14日(金)、Anthropic社(人気のクロード・コード・ツールのおかげで、世界で最も有名なLLMベンダーの1つ)は、2025年9月に彼らが観測した、大手ハイテク企業、金融機関、化学製造会社から政府機関までを標的としたサイバー事件に関する画期的な論文を発表した。
では、この騒ぎは一体何なのだろうか?平たく言えば、高度な脅威行為者(国家とされる)が、クロード・コードと開発者環境のさまざまなツールを使用し、モデル・コンテキスト・プロトコル(MCP)システムを活用して、ほぼ自律的に、大規模に、良識あるオープンソースのハッキング・ツールを使用して、慎重に選ばれた企業をターゲットにした。30以上の攻撃が試みられ、いくつかは成功し、AIエージェントが人間の介入をほとんど受けずに壊滅的な侵害を実行できることが証明された。
先月、VS Code拡張機能を標的とした初の自己増殖型ワームであるGlassWormがKoi Securityによって特定された。後者は新しい攻撃ベクトルではないが、コーディング拡張機能(MCPサーバーを含む)には新しい波が押し寄せており、一見すると良性の機能を備えているが、その裏側では開発者のエンドポイントを迅速に危険にさらす可能性のあるさまざまな悪意のある活動が行われている。
そろそろペースを落とし、深呼吸をし、この新たな脅威のプロファイルから身を守る最善の方法を考え出すときなのかもしれない。
高速AIエージェントからシステムを守る
Anthropic社が最近発表した論文は、AIが分散型リスクを劇的に加速・増幅させる可能性を示すことで、セキュリティ・コミュニティの多くの人々が長年抱いてきた懸念を裏付けるような、強力な新たな脅威を浮き彫りにしている。この進展は、悪意ある行為者にさらなる優位性を与えるものであり、平均的な企業における技術の乱立を管理する、燃え尽き、伸び悩んだセキュリティ担当者よりも、彼らがすでに優位に立っていることを考えると、気が狂いそうになる。
要するに、国家に支援された攻撃者たちは、クロード・コードのモデルを "脱獄 "することに成功したのだ。彼らはAIをだまし、その洗練されたセキュリティ・プロトコルを回避して敵対的な作戦を実行することに成功した。いったん侵害されると、不正なAIエージェントはMCPアクセス権を利用して、さまざまな企業システムやツールに急速に侵入した。そして、最も高度な人間のハッキング集団でも不可能な時間枠で、標的組織内の機密性の高いデータベースを特定し、ピンポイントで突き止めた。
包括的な脆弱性テスト、悪意あるコードの自動生成、さらにはシステム・スキャンのログや個人を特定できる情報(PII)の取得に成功した攻撃の自己文書化などである。
セキュリティのベテランにとって、これは正真正銘の悪夢のシナリオだ。この種のAIを搭載した攻撃ベクトルの圧倒的なスピードと破壊力に、人間のチームが太刀打ちできるわけがない。
開発者のエンドポイントと新たなAIエコシステムは新たな攻撃ベクトルを提供する
古典的なVSCode、JetBrainsのIntelliJ、Eclipse、あるいは新しいCline、Windsurf、Cursorなど、どの開発者も独自のIDEを好み、そのほとんどに、ダウンロードしてインストールできる拡張機能を提供するAppマーケットプレイスがある。これらの拡張機能は、悪意のあるアクティビティについて精査されることはほとんどなく、通常、過剰に許可されて出荷され、ファイルにアクセスできるサンドボックス環境にアクセスできる。
これらの環境は現在、すべてAI機能、AIエージェント、そしてこれらのエージェントが使用できるさまざまな新しいツール(たとえばMCPサーバー)を統合している。多くの場合、これらはすべてマーケットプレイスを通じて公開され、開発者は誰でも新しいツールをリリースすることができる。そして、ご想像の通り、これらのMCPサーバーは、多くの場合、プロンプト・インジェクションに対して最も脆弱なAI環境を通じて、システム上でコマンドの読み取り、書き込み、実行を行うことができる。何が悪いのだろうか?
AIツールのトレーサビリティと観測可能性の譲れない必要性
複雑でありながらシンプルなのだ:もしCISOが、どの開発者がどのAIツールを使っているのか、どのコードがコミットされているのか、どのリポジトリが人間とAIのコラボレーションによって拡張されているのかを把握していないとしたら、膨大なデータセットが欠落しており、観測可能性を昨日までに改善する必要がある。
AI コーディングアシスタントと MCP サーバの急速な統合は、現在、大多数の開発者によって活用されているが、SDLC 内に重大なセキュリティの盲点を生み出している。そのデータは驚くべきものだ。機能的に正しい LLM が生成したコードの最大 50%にセキュリティバグが含まれていることが判明しているが、適切な観測可能性がないため、CISO と AppSec チームは、導入されるこの高リスクのコードの膨大な量とソースに関する実用的な洞察を欠いている。このトレーサビリティの致命的な欠如は、ポリシーの実施とリスク軽減という形で効果的なAIガバナンスを機能的に不可能にする。
AIがもたらす莫大な生産性向上を安全に最大化するために、組織はAI攻撃対象領域を完全に深く可視化するソリューションを義務付ける必要があります。Secure Code Warrior 、SCW Trust Agent:AIをクローズド・ベータで提供しています。この機能は、開発者のローカル・マシン上でAIが生成したコード・トラフィック(MCPサーバーを含む)をリアルタイムでアクティブに監視し、実際のソフトウェア・リポジトリへのプル・リクエストやコミットを通じてIDEがそれを追跡することで、深い観測可能性を提供します。正確なセキュリティ・トレーサビリティは、使用される特定のAIコーディング・ツールとLLMモデル、対象となるコード・リポジトリ、そして最も重要なこととして、貢献した開発者の測定されたセキュア・コーディングの熟練度という3つの重要なシグナルを相関させることによってのみ達成される。
この検証可能な相関関係の連鎖を確立することによってのみ、組織は、導入される実際のセキュリティリスクを正確にベンチマークし、堅牢なポリシーの実施を自動化し、AI対応開発者が既存のガードレールをうまく回避する前に、必須のセキュアコーディング標準を満たすようにすることができる。
もっと詳しく知りたい方、AIガバナンスのデモをご覧になりたい方、ベータプログラムへの参加をご希望の方は、私たちにご連絡ください。

以下のリンクをクリックし、この資料のPDFをダウンロードしてください。
Secure Code Warrior は、ソフトウェア開発ライフサイクル全体にわたってコードを保護し、サイバーセキュリティを最優先とする企業文化を創造するために、お客様の組織を支援します。AppSec マネージャー、開発者、CISO、またはセキュリティに関わるすべての人が、安全でないコードに関連するリスクを減らすことができるよう、支援します。
レポートを見るデモを予約する最高経営責任者(CEO)、会長、および共同設立者
Pieter Danhieuxは、セキュリティコンサルタントとして12年以上の経験を持ち、SANSの主席講師として8年間、組織、システム、個人をターゲットにしてセキュリティの弱点を評価する方法に関する攻撃的なテクニックを教えている、世界的に有名なセキュリティエキスパートです。2016年には、オーストラリアで最もクールな技術者の一人として認められ(Business Insider)、Cyber Security Professional of the Yearを受賞(AISA - Australian Information Security Association)、GSE、CISSP、GCIH、GCFA、GSEC、GPEN、GWAPT、GCIA認定を保有している。
サイバーセキュリティの専門家として、今まさに誰もがエージェント型AIのハイパードライブに突入している。さて、私たちの多くがAIセキュリティの水晶玉の中で見てきたことが、今や突然現実のものとなっている。
11月14日(金)、Anthropic社(人気のクロード・コード・ツールのおかげで、世界で最も有名なLLMベンダーの1つ)は、2025年9月に彼らが観測した、大手ハイテク企業、金融機関、化学製造会社から政府機関までを標的としたサイバー事件に関する画期的な論文を発表した。
では、この騒ぎは一体何なのだろうか?平たく言えば、高度な脅威行為者(国家とされる)が、クロード・コードと開発者環境のさまざまなツールを使用し、モデル・コンテキスト・プロトコル(MCP)システムを活用して、ほぼ自律的に、大規模に、良識あるオープンソースのハッキング・ツールを使用して、慎重に選ばれた企業をターゲットにした。30以上の攻撃が試みられ、いくつかは成功し、AIエージェントが人間の介入をほとんど受けずに壊滅的な侵害を実行できることが証明された。
先月、VS Code拡張機能を標的とした初の自己増殖型ワームであるGlassWormがKoi Securityによって特定された。後者は新しい攻撃ベクトルではないが、コーディング拡張機能(MCPサーバーを含む)には新しい波が押し寄せており、一見すると良性の機能を備えているが、その裏側では開発者のエンドポイントを迅速に危険にさらす可能性のあるさまざまな悪意のある活動が行われている。
そろそろペースを落とし、深呼吸をし、この新たな脅威のプロファイルから身を守る最善の方法を考え出すときなのかもしれない。
高速AIエージェントからシステムを守る
Anthropic社が最近発表した論文は、AIが分散型リスクを劇的に加速・増幅させる可能性を示すことで、セキュリティ・コミュニティの多くの人々が長年抱いてきた懸念を裏付けるような、強力な新たな脅威を浮き彫りにしている。この進展は、悪意ある行為者にさらなる優位性を与えるものであり、平均的な企業における技術の乱立を管理する、燃え尽き、伸び悩んだセキュリティ担当者よりも、彼らがすでに優位に立っていることを考えると、気が狂いそうになる。
要するに、国家に支援された攻撃者たちは、クロード・コードのモデルを "脱獄 "することに成功したのだ。彼らはAIをだまし、その洗練されたセキュリティ・プロトコルを回避して敵対的な作戦を実行することに成功した。いったん侵害されると、不正なAIエージェントはMCPアクセス権を利用して、さまざまな企業システムやツールに急速に侵入した。そして、最も高度な人間のハッキング集団でも不可能な時間枠で、標的組織内の機密性の高いデータベースを特定し、ピンポイントで突き止めた。
包括的な脆弱性テスト、悪意あるコードの自動生成、さらにはシステム・スキャンのログや個人を特定できる情報(PII)の取得に成功した攻撃の自己文書化などである。
セキュリティのベテランにとって、これは正真正銘の悪夢のシナリオだ。この種のAIを搭載した攻撃ベクトルの圧倒的なスピードと破壊力に、人間のチームが太刀打ちできるわけがない。
開発者のエンドポイントと新たなAIエコシステムは新たな攻撃ベクトルを提供する
古典的なVSCode、JetBrainsのIntelliJ、Eclipse、あるいは新しいCline、Windsurf、Cursorなど、どの開発者も独自のIDEを好み、そのほとんどに、ダウンロードしてインストールできる拡張機能を提供するAppマーケットプレイスがある。これらの拡張機能は、悪意のあるアクティビティについて精査されることはほとんどなく、通常、過剰に許可されて出荷され、ファイルにアクセスできるサンドボックス環境にアクセスできる。
これらの環境は現在、すべてAI機能、AIエージェント、そしてこれらのエージェントが使用できるさまざまな新しいツール(たとえばMCPサーバー)を統合している。多くの場合、これらはすべてマーケットプレイスを通じて公開され、開発者は誰でも新しいツールをリリースすることができる。そして、ご想像の通り、これらのMCPサーバーは、多くの場合、プロンプト・インジェクションに対して最も脆弱なAI環境を通じて、システム上でコマンドの読み取り、書き込み、実行を行うことができる。何が悪いのだろうか?
AIツールのトレーサビリティと観測可能性の譲れない必要性
複雑でありながらシンプルなのだ:もしCISOが、どの開発者がどのAIツールを使っているのか、どのコードがコミットされているのか、どのリポジトリが人間とAIのコラボレーションによって拡張されているのかを把握していないとしたら、膨大なデータセットが欠落しており、観測可能性を昨日までに改善する必要がある。
AI コーディングアシスタントと MCP サーバの急速な統合は、現在、大多数の開発者によって活用されているが、SDLC 内に重大なセキュリティの盲点を生み出している。そのデータは驚くべきものだ。機能的に正しい LLM が生成したコードの最大 50%にセキュリティバグが含まれていることが判明しているが、適切な観測可能性がないため、CISO と AppSec チームは、導入されるこの高リスクのコードの膨大な量とソースに関する実用的な洞察を欠いている。このトレーサビリティの致命的な欠如は、ポリシーの実施とリスク軽減という形で効果的なAIガバナンスを機能的に不可能にする。
AIがもたらす莫大な生産性向上を安全に最大化するために、組織はAI攻撃対象領域を完全に深く可視化するソリューションを義務付ける必要があります。Secure Code Warrior 、SCW Trust Agent:AIをクローズド・ベータで提供しています。この機能は、開発者のローカル・マシン上でAIが生成したコード・トラフィック(MCPサーバーを含む)をリアルタイムでアクティブに監視し、実際のソフトウェア・リポジトリへのプル・リクエストやコミットを通じてIDEがそれを追跡することで、深い観測可能性を提供します。正確なセキュリティ・トレーサビリティは、使用される特定のAIコーディング・ツールとLLMモデル、対象となるコード・リポジトリ、そして最も重要なこととして、貢献した開発者の測定されたセキュア・コーディングの熟練度という3つの重要なシグナルを相関させることによってのみ達成される。
この検証可能な相関関係の連鎖を確立することによってのみ、組織は、導入される実際のセキュリティリスクを正確にベンチマークし、堅牢なポリシーの実施を自動化し、AI対応開発者が既存のガードレールをうまく回避する前に、必須のセキュアコーディング標準を満たすようにすることができる。
もっと詳しく知りたい方、AIガバナンスのデモをご覧になりたい方、ベータプログラムへの参加をご希望の方は、私たちにご連絡ください。
始めるためのリソース
Trust Agent:AI - Secure and scale AI-Drive development
AI is writing code. Who’s governing it? With up to 50% of AI-generated code containing security weaknesses, managing AI risk is critical. Discover how SCW's Trust Agent: AI provides the real-time visibility, proactive governance, and targeted upskilling needed to scale AI-driven development securely.
OpenText アプリケーションセキュリティのパワー + Secure Code Warrior
OpenText Application Security and Secure Code Warrior combine vulnerability detection with AI Software Governance and developer capability. Together, they help organizations reduce risk, strengthen secure coding practices, and confidently adopt AI-driven development.
Secure Code Warrior corporate overview
Secure Code Warrior is an AI Software Governance platform designed to enable organizations to safely adopt AI-driven development by bridging the gap between development velocity and enterprise security. The platform addresses the "Visibility Gap," where security teams often lack insights into shadow AI coding tools and the origins of production code.
セキュアコード・トレーニングのトピックと内容
Our industry-leading content is always evolving to fit the ever changing software development landscape with your role in mind. Topics covering everything from AI to XQuery Injection, offered for a variety of roles from Architects and Engineers to Product Managers and QA. Get a sneak peek of what our content catalog has to offer by topic and role.
始めるためのリソース
Observe and Secure the ADLC: A Four-Point Framework for CISOs and Development Teams Using AI
While development teams look to make the most of GenAI’s undeniable benefits, we’d like to propose a four-point foundational framework that will allow security leaders to deploy AI coding tools and agents with a higher, more relevant standard of security best practices. It details exactly what enterprises can do to ensure safe, secure code development right now, and as agentic AI becomes an even bigger factor in the future.






