
AIを活用したセキュアなソフトウェア開発におけるクリティカル・シンキングの回復
この記事のバージョンは Cybersecurity Insidersに掲載された。 この記事は更新され、ここにシンジケートされている。
大規模言語モデル(LLM)コード作成者から洗練されたエージェント型AIエージェントまで、人工知能アシスタントの採用は、ソフトウェア開発者に豊かな恩恵をもたらす。しかし、マサチューセッツ工科大学(MIT)の新しい研究によって強調された最近の知見は、警告を発している。
AIに関連するセキュリティリスクがAIの導入と歩調を合わせて増大しているソフトウェアの状況を考えると、このような認知的適性の喪失は、実際に破滅的な結果をもたらす可能性がある。ソフトウェア開発ライフサイクル(SDLC)の早い段階で、セキュリティの脆弱性を積極的に特定し、理解し、緩和することは、開発者と組織にとって倫理的な必須事項である。この義務を怠る者は、憂慮すべきことに、今日の多くの組織を表しているが、同様に潜在的なセキュリティ脅威の急増に直面する。
生産性や効率性の面でAIを活用するメリットはあまりにも大きいため、AIを活用するかどうかが論点ではない。むしろ、本当の問題は、AIをどのように最も効果的に適用するかということだ。そして、これは、そのコードがどこで生まれたものであれ、そのコードを深く理解するセキュリティに精通した開発者によって行われるのが最善なのだ。
AIへの過度の依存は認知機能低下のリスク
MITのメディアラボが6月初旬に発表した研究では、ボストン近郊の5大学の学生54人を対象に、小論文を書きながら認知機能をテストした。学生たちは、大規模言語モデル(LLM)を使用するグループ、検索エンジンを使用するグループ、外部からの支援を受けずに昔ながらの方法で行うグループの3つに分けられた。研究チームは脳波計(EEG)を使って参加者の脳活動を記録し、認知的関与と認知的負荷を評価した。その結果、昔ながらの「脳だけ」を使ったグループが最も強く、広範囲な神経活動を示し、検索エンジンを使ったグループは中程度の活動を示し、LLM(今回はOpenAIのChatGPT-4)を使ったグループは最も少ない脳活動を示した。
これは特に驚くべきことではないかもしれない。結局のところ、自分の代わりに思考してくれるツールを使えば、思考することは少なくなるのだから。しかし、この調査では、LLMユーザーは論文との結びつきが弱いことも明らかになった:83%の学生は、エッセイを書き終えた数分後でも、その内容を思い出すのに苦労しており、正確な引用を行えた学生は一人もいなかった。他のグループに比べて、著者の所有者意識が欠けていた。脳のみの参加者は、最も高い当事者意識を持ち、最も幅広い脳活動を示しただけでなく、最も独創的な論文を作成した。LLMグループの結果はより均質であり、実際、審査員によってAIの仕事であると簡単に見分けられた。
開発者の観点からすると、重要な結果はAIの使用から生じる批判的思考の低下である。もちろん、1回だけAIに頼れば本質的な思考スキルが失われることはないかもしれないが、長期間にわたって使い続けると、そのスキルが萎縮してしまう可能性がある。この研究は、ユーザーがAIを助けるのではなく、AIがユーザーを助けることで、AIを使用しながらもクリティカル・シンキングを維持する方法を提案している。しかし、本当の重点は、開発者が安全なソフトウェアを構築するために必要なセキュリティ・スキルを確実に身につけ、そのスキルを日常的かつ不可欠な業務として使用することでなければならない。
開発者教育:AI主導のエコシステムに不可欠
MITのような研究がAIの導入を止めることはないだろう。スタンフォード大学の2025年AI指数レポートでは、2023年の55%に対し、2024年には78%の組織がAIを使用していると報告している。このような成長は今後も続くと予想される。しかし、利用の増加はリスクの増加にも反映される:同レポートによると、AI関連のサイバーセキュリティ・インシデントは同時期に56%増加した。
スタンフォード大学の報告書は、AIガバナンスの改善が極めて重要であることを強調している。実質的にすべての組織がAIのリスクを認識しているにもかかわらず、それに対して何かを行っているのは3分の2以下であり、多くのサイバーセキュリティの脅威にさらされやすく、ますます厳しくなる規制コンプライアンス要件に違反する可能性がある。
その答えがAIの利用をやめることではないのなら(誰もやらないだろうが)、AIをより安全かつ確実に利用することでなければならない。MITの研究は、そのための一つのヒントを与えてくれる。それは、ChatGPTに助けを求める前に自分でエッセイを書き始めた人たち(研究ではBrain-to-LLMグループとして知られている)と、ChatGPTに個人的な注意を払う前に初稿を書き上げさせた人たち(LLM-to-Brainグループとして知られている)である。Brain-to-LLMグループは、すでに下書きしたエッセイの書き直しをAIツールで支援し、より高い想起と脳活動を示した。AIに小論文を書かせたLLM-to-Brainグループは、協調的な神経活動が少なく、LLMの語彙を使うことに偏っていた。
Brain-to-LLMアプローチは、ユーザーの頭脳を少し鋭敏に保つのに役立つかもしれないが、開発者は、ソフトウェアを安全に記述し、AIが生成したコードにエラーやセキュリティリスクがないかどうかを批判的に評価するための具体的な知識も必要とする。開発者は、プロンプト・インジェクション攻撃に対する脆弱性など、セキュリティ上の欠陥を導入する傾向を含む、AIの限界を理解する必要がある。
これには、企業全体のセキュリティ優先の文化の一環として、開発者が効果的で、柔軟で、実践的で、継続的なスキルアップを受けられるような、人間中心の SDLC を確保するために、企業のセキュリティプログラムを抜本的に見直す必要がある。開発者は、急速に進化する高度な脅威、特にソフトウェア開発における AI の重要な役割によって引き起こされる脅威に後れを取らないように、継続的にスキルを磨く必要がある。これにより、例えば、ますます一般的になっているプロンプト・インジェクション攻撃から身を守ることができる。しかし、この保護が機能するためには、組織は、安全なデザインパターンと脅威のモデリングに焦点を当てた開発者主導のイニシアチブを必要としている。
結論
LLMやエージェントが力仕事をすると、ユーザーは受動的な傍観者になってしまう。これは、「批判的思考力の低下、教材に対する深い理解の低下、長期記憶の形成の低下」につながると、この研究の著者は述べている。認知的関与のレベルの低下は、意思決定能力の低下にもつながる。
サイバーセキュリティに関して、組織は批判的思考の欠如を許されない。高度に分散されたクラウドベースの環境におけるソフトウェアの欠陥は、サイバー攻撃者の最大の標的となっているため、サイバーセキュリティは、開発者、AIアシスタント、エージェント型エージェントのいずれが作成したものであっても、安全なコードを確保することから始まる。AIのすべての力に対して、組織はこれまで以上に高度に研ぎ澄まされた問題解決能力と批判的思考能力を必要としている。そして、それはAIにアウトソーシングすることはできない。
SCW Trust Agentの新しいAI機能は、セキュリティを犠牲にすることなく、SDLCにおけるAIの採用を自信を持って管理するために必要な、深い観測性と制御性を提供します。 詳細はこちら.


AIの議論は、使用方法ではなく、アプリケーションについてです。コードを深く理解する開発者に頼ることで、AIの生産性向上と強固なセキュリティの必要性を両立させる方法をご覧ください。
Matias Madou, Ph.D. セキュリティ専門家、研究者、CTO兼共同設立者(Secure Code Warrior )。Ghent大学でアプリケーションセキュリティの博士号を取得し、静的解析ソリューションに焦点を当てた。その後、米国Fortify社に入社し、開発者が安全なコードを書くことを支援せずに、コードの問題を検出するだけでは不十分であることに気づきました。開発者を支援し、セキュリティの負担を軽減し、お客様の期待を上回る製品を開発することを志すようになった。Team Awesomeの一員としてデスクワークをしていないときは、RSA Conference、BlackHat、DefConなどのカンファレンスでプレゼンテーションをするのが好きである。

Secure Code Warrior は、ソフトウェア開発ライフサイクル全体にわたってコードを保護し、サイバーセキュリティを最優先とする企業文化を創造するために、お客様の組織を支援します。AppSec マネージャー、開発者、CISO、またはセキュリティに関わるすべての人が、安全でないコードに関連するリスクを減らすことができるよう、支援します。
デモを予約するMatias Madou, Ph.D. セキュリティ専門家、研究者、CTO兼共同設立者(Secure Code Warrior )。Ghent大学でアプリケーションセキュリティの博士号を取得し、静的解析ソリューションに焦点を当てた。その後、米国Fortify社に入社し、開発者が安全なコードを書くことを支援せずに、コードの問題を検出するだけでは不十分であることに気づきました。開発者を支援し、セキュリティの負担を軽減し、お客様の期待を上回る製品を開発することを志すようになった。Team Awesomeの一員としてデスクワークをしていないときは、RSA Conference、BlackHat、DefConなどのカンファレンスでプレゼンテーションをするのが好きである。
マティアスは、15年以上のソフトウェアセキュリティの実務経験を持つ研究者・開発者です。フォーティファイ・ソフトウェア社や自身の会社(Sensei Security)などでソリューションを開発してきました。キャリアの中で、Matiasは、商用製品につながる複数のアプリケーションセキュリティ研究プロジェクトを主導し、10件以上の特許を取得しています。また、RSAカンファレンス、Black Hat、DefCon、BSIMM、OWASP AppSec、BruConなどの世界的なカンファレンスで定期的に講演を行っているほか、高度なアプリケーションセキュリティトレーニング(courses )の講師も務めています。
Matiasはゲント大学でコンピュータ工学の博士号を取得し、アプリケーションの内部構造を隠すためのプログラム難読化によるアプリケーションセキュリティを研究しました。


この記事のバージョンは Cybersecurity Insidersに掲載された。 この記事は更新され、ここにシンジケートされている。
大規模言語モデル(LLM)コード作成者から洗練されたエージェント型AIエージェントまで、人工知能アシスタントの採用は、ソフトウェア開発者に豊かな恩恵をもたらす。しかし、マサチューセッツ工科大学(MIT)の新しい研究によって強調された最近の知見は、警告を発している。
AIに関連するセキュリティリスクがAIの導入と歩調を合わせて増大しているソフトウェアの状況を考えると、このような認知的適性の喪失は、実際に破滅的な結果をもたらす可能性がある。ソフトウェア開発ライフサイクル(SDLC)の早い段階で、セキュリティの脆弱性を積極的に特定し、理解し、緩和することは、開発者と組織にとって倫理的な必須事項である。この義務を怠る者は、憂慮すべきことに、今日の多くの組織を表しているが、同様に潜在的なセキュリティ脅威の急増に直面する。
生産性や効率性の面でAIを活用するメリットはあまりにも大きいため、AIを活用するかどうかが論点ではない。むしろ、本当の問題は、AIをどのように最も効果的に適用するかということだ。そして、これは、そのコードがどこで生まれたものであれ、そのコードを深く理解するセキュリティに精通した開発者によって行われるのが最善なのだ。
AIへの過度の依存は認知機能低下のリスク
MITのメディアラボが6月初旬に発表した研究では、ボストン近郊の5大学の学生54人を対象に、小論文を書きながら認知機能をテストした。学生たちは、大規模言語モデル(LLM)を使用するグループ、検索エンジンを使用するグループ、外部からの支援を受けずに昔ながらの方法で行うグループの3つに分けられた。研究チームは脳波計(EEG)を使って参加者の脳活動を記録し、認知的関与と認知的負荷を評価した。その結果、昔ながらの「脳だけ」を使ったグループが最も強く、広範囲な神経活動を示し、検索エンジンを使ったグループは中程度の活動を示し、LLM(今回はOpenAIのChatGPT-4)を使ったグループは最も少ない脳活動を示した。
これは特に驚くべきことではないかもしれない。結局のところ、自分の代わりに思考してくれるツールを使えば、思考することは少なくなるのだから。しかし、この調査では、LLMユーザーは論文との結びつきが弱いことも明らかになった:83%の学生は、エッセイを書き終えた数分後でも、その内容を思い出すのに苦労しており、正確な引用を行えた学生は一人もいなかった。他のグループに比べて、著者の所有者意識が欠けていた。脳のみの参加者は、最も高い当事者意識を持ち、最も幅広い脳活動を示しただけでなく、最も独創的な論文を作成した。LLMグループの結果はより均質であり、実際、審査員によってAIの仕事であると簡単に見分けられた。
開発者の観点からすると、重要な結果はAIの使用から生じる批判的思考の低下である。もちろん、1回だけAIに頼れば本質的な思考スキルが失われることはないかもしれないが、長期間にわたって使い続けると、そのスキルが萎縮してしまう可能性がある。この研究は、ユーザーがAIを助けるのではなく、AIがユーザーを助けることで、AIを使用しながらもクリティカル・シンキングを維持する方法を提案している。しかし、本当の重点は、開発者が安全なソフトウェアを構築するために必要なセキュリティ・スキルを確実に身につけ、そのスキルを日常的かつ不可欠な業務として使用することでなければならない。
開発者教育:AI主導のエコシステムに不可欠
MITのような研究がAIの導入を止めることはないだろう。スタンフォード大学の2025年AI指数レポートでは、2023年の55%に対し、2024年には78%の組織がAIを使用していると報告している。このような成長は今後も続くと予想される。しかし、利用の増加はリスクの増加にも反映される:同レポートによると、AI関連のサイバーセキュリティ・インシデントは同時期に56%増加した。
スタンフォード大学の報告書は、AIガバナンスの改善が極めて重要であることを強調している。実質的にすべての組織がAIのリスクを認識しているにもかかわらず、それに対して何かを行っているのは3分の2以下であり、多くのサイバーセキュリティの脅威にさらされやすく、ますます厳しくなる規制コンプライアンス要件に違反する可能性がある。
その答えがAIの利用をやめることではないのなら(誰もやらないだろうが)、AIをより安全かつ確実に利用することでなければならない。MITの研究は、そのための一つのヒントを与えてくれる。それは、ChatGPTに助けを求める前に自分でエッセイを書き始めた人たち(研究ではBrain-to-LLMグループとして知られている)と、ChatGPTに個人的な注意を払う前に初稿を書き上げさせた人たち(LLM-to-Brainグループとして知られている)である。Brain-to-LLMグループは、すでに下書きしたエッセイの書き直しをAIツールで支援し、より高い想起と脳活動を示した。AIに小論文を書かせたLLM-to-Brainグループは、協調的な神経活動が少なく、LLMの語彙を使うことに偏っていた。
Brain-to-LLMアプローチは、ユーザーの頭脳を少し鋭敏に保つのに役立つかもしれないが、開発者は、ソフトウェアを安全に記述し、AIが生成したコードにエラーやセキュリティリスクがないかどうかを批判的に評価するための具体的な知識も必要とする。開発者は、プロンプト・インジェクション攻撃に対する脆弱性など、セキュリティ上の欠陥を導入する傾向を含む、AIの限界を理解する必要がある。
これには、企業全体のセキュリティ優先の文化の一環として、開発者が効果的で、柔軟で、実践的で、継続的なスキルアップを受けられるような、人間中心の SDLC を確保するために、企業のセキュリティプログラムを抜本的に見直す必要がある。開発者は、急速に進化する高度な脅威、特にソフトウェア開発における AI の重要な役割によって引き起こされる脅威に後れを取らないように、継続的にスキルを磨く必要がある。これにより、例えば、ますます一般的になっているプロンプト・インジェクション攻撃から身を守ることができる。しかし、この保護が機能するためには、組織は、安全なデザインパターンと脅威のモデリングに焦点を当てた開発者主導のイニシアチブを必要としている。
結論
LLMやエージェントが力仕事をすると、ユーザーは受動的な傍観者になってしまう。これは、「批判的思考力の低下、教材に対する深い理解の低下、長期記憶の形成の低下」につながると、この研究の著者は述べている。認知的関与のレベルの低下は、意思決定能力の低下にもつながる。
サイバーセキュリティに関して、組織は批判的思考の欠如を許されない。高度に分散されたクラウドベースの環境におけるソフトウェアの欠陥は、サイバー攻撃者の最大の標的となっているため、サイバーセキュリティは、開発者、AIアシスタント、エージェント型エージェントのいずれが作成したものであっても、安全なコードを確保することから始まる。AIのすべての力に対して、組織はこれまで以上に高度に研ぎ澄まされた問題解決能力と批判的思考能力を必要としている。そして、それはAIにアウトソーシングすることはできない。
SCW Trust Agentの新しいAI機能は、セキュリティを犠牲にすることなく、SDLCにおけるAIの採用を自信を持って管理するために必要な、深い観測性と制御性を提供します。 詳細はこちら.

この記事のバージョンは Cybersecurity Insidersに掲載された。 この記事は更新され、ここにシンジケートされている。
大規模言語モデル(LLM)コード作成者から洗練されたエージェント型AIエージェントまで、人工知能アシスタントの採用は、ソフトウェア開発者に豊かな恩恵をもたらす。しかし、マサチューセッツ工科大学(MIT)の新しい研究によって強調された最近の知見は、警告を発している。
AIに関連するセキュリティリスクがAIの導入と歩調を合わせて増大しているソフトウェアの状況を考えると、このような認知的適性の喪失は、実際に破滅的な結果をもたらす可能性がある。ソフトウェア開発ライフサイクル(SDLC)の早い段階で、セキュリティの脆弱性を積極的に特定し、理解し、緩和することは、開発者と組織にとって倫理的な必須事項である。この義務を怠る者は、憂慮すべきことに、今日の多くの組織を表しているが、同様に潜在的なセキュリティ脅威の急増に直面する。
生産性や効率性の面でAIを活用するメリットはあまりにも大きいため、AIを活用するかどうかが論点ではない。むしろ、本当の問題は、AIをどのように最も効果的に適用するかということだ。そして、これは、そのコードがどこで生まれたものであれ、そのコードを深く理解するセキュリティに精通した開発者によって行われるのが最善なのだ。
AIへの過度の依存は認知機能低下のリスク
MITのメディアラボが6月初旬に発表した研究では、ボストン近郊の5大学の学生54人を対象に、小論文を書きながら認知機能をテストした。学生たちは、大規模言語モデル(LLM)を使用するグループ、検索エンジンを使用するグループ、外部からの支援を受けずに昔ながらの方法で行うグループの3つに分けられた。研究チームは脳波計(EEG)を使って参加者の脳活動を記録し、認知的関与と認知的負荷を評価した。その結果、昔ながらの「脳だけ」を使ったグループが最も強く、広範囲な神経活動を示し、検索エンジンを使ったグループは中程度の活動を示し、LLM(今回はOpenAIのChatGPT-4)を使ったグループは最も少ない脳活動を示した。
これは特に驚くべきことではないかもしれない。結局のところ、自分の代わりに思考してくれるツールを使えば、思考することは少なくなるのだから。しかし、この調査では、LLMユーザーは論文との結びつきが弱いことも明らかになった:83%の学生は、エッセイを書き終えた数分後でも、その内容を思い出すのに苦労しており、正確な引用を行えた学生は一人もいなかった。他のグループに比べて、著者の所有者意識が欠けていた。脳のみの参加者は、最も高い当事者意識を持ち、最も幅広い脳活動を示しただけでなく、最も独創的な論文を作成した。LLMグループの結果はより均質であり、実際、審査員によってAIの仕事であると簡単に見分けられた。
開発者の観点からすると、重要な結果はAIの使用から生じる批判的思考の低下である。もちろん、1回だけAIに頼れば本質的な思考スキルが失われることはないかもしれないが、長期間にわたって使い続けると、そのスキルが萎縮してしまう可能性がある。この研究は、ユーザーがAIを助けるのではなく、AIがユーザーを助けることで、AIを使用しながらもクリティカル・シンキングを維持する方法を提案している。しかし、本当の重点は、開発者が安全なソフトウェアを構築するために必要なセキュリティ・スキルを確実に身につけ、そのスキルを日常的かつ不可欠な業務として使用することでなければならない。
開発者教育:AI主導のエコシステムに不可欠
MITのような研究がAIの導入を止めることはないだろう。スタンフォード大学の2025年AI指数レポートでは、2023年の55%に対し、2024年には78%の組織がAIを使用していると報告している。このような成長は今後も続くと予想される。しかし、利用の増加はリスクの増加にも反映される:同レポートによると、AI関連のサイバーセキュリティ・インシデントは同時期に56%増加した。
スタンフォード大学の報告書は、AIガバナンスの改善が極めて重要であることを強調している。実質的にすべての組織がAIのリスクを認識しているにもかかわらず、それに対して何かを行っているのは3分の2以下であり、多くのサイバーセキュリティの脅威にさらされやすく、ますます厳しくなる規制コンプライアンス要件に違反する可能性がある。
その答えがAIの利用をやめることではないのなら(誰もやらないだろうが)、AIをより安全かつ確実に利用することでなければならない。MITの研究は、そのための一つのヒントを与えてくれる。それは、ChatGPTに助けを求める前に自分でエッセイを書き始めた人たち(研究ではBrain-to-LLMグループとして知られている)と、ChatGPTに個人的な注意を払う前に初稿を書き上げさせた人たち(LLM-to-Brainグループとして知られている)である。Brain-to-LLMグループは、すでに下書きしたエッセイの書き直しをAIツールで支援し、より高い想起と脳活動を示した。AIに小論文を書かせたLLM-to-Brainグループは、協調的な神経活動が少なく、LLMの語彙を使うことに偏っていた。
Brain-to-LLMアプローチは、ユーザーの頭脳を少し鋭敏に保つのに役立つかもしれないが、開発者は、ソフトウェアを安全に記述し、AIが生成したコードにエラーやセキュリティリスクがないかどうかを批判的に評価するための具体的な知識も必要とする。開発者は、プロンプト・インジェクション攻撃に対する脆弱性など、セキュリティ上の欠陥を導入する傾向を含む、AIの限界を理解する必要がある。
これには、企業全体のセキュリティ優先の文化の一環として、開発者が効果的で、柔軟で、実践的で、継続的なスキルアップを受けられるような、人間中心の SDLC を確保するために、企業のセキュリティプログラムを抜本的に見直す必要がある。開発者は、急速に進化する高度な脅威、特にソフトウェア開発における AI の重要な役割によって引き起こされる脅威に後れを取らないように、継続的にスキルを磨く必要がある。これにより、例えば、ますます一般的になっているプロンプト・インジェクション攻撃から身を守ることができる。しかし、この保護が機能するためには、組織は、安全なデザインパターンと脅威のモデリングに焦点を当てた開発者主導のイニシアチブを必要としている。
結論
LLMやエージェントが力仕事をすると、ユーザーは受動的な傍観者になってしまう。これは、「批判的思考力の低下、教材に対する深い理解の低下、長期記憶の形成の低下」につながると、この研究の著者は述べている。認知的関与のレベルの低下は、意思決定能力の低下にもつながる。
サイバーセキュリティに関して、組織は批判的思考の欠如を許されない。高度に分散されたクラウドベースの環境におけるソフトウェアの欠陥は、サイバー攻撃者の最大の標的となっているため、サイバーセキュリティは、開発者、AIアシスタント、エージェント型エージェントのいずれが作成したものであっても、安全なコードを確保することから始まる。AIのすべての力に対して、組織はこれまで以上に高度に研ぎ澄まされた問題解決能力と批判的思考能力を必要としている。そして、それはAIにアウトソーシングすることはできない。
SCW Trust Agentの新しいAI機能は、セキュリティを犠牲にすることなく、SDLCにおけるAIの採用を自信を持って管理するために必要な、深い観測性と制御性を提供します。 詳細はこちら.

以下のリンクをクリックし、この資料のPDFをダウンロードしてください。
Secure Code Warrior は、ソフトウェア開発ライフサイクル全体にわたってコードを保護し、サイバーセキュリティを最優先とする企業文化を創造するために、お客様の組織を支援します。AppSec マネージャー、開発者、CISO、またはセキュリティに関わるすべての人が、安全でないコードに関連するリスクを減らすことができるよう、支援します。
レポートを見るデモを予約するMatias Madou, Ph.D. セキュリティ専門家、研究者、CTO兼共同設立者(Secure Code Warrior )。Ghent大学でアプリケーションセキュリティの博士号を取得し、静的解析ソリューションに焦点を当てた。その後、米国Fortify社に入社し、開発者が安全なコードを書くことを支援せずに、コードの問題を検出するだけでは不十分であることに気づきました。開発者を支援し、セキュリティの負担を軽減し、お客様の期待を上回る製品を開発することを志すようになった。Team Awesomeの一員としてデスクワークをしていないときは、RSA Conference、BlackHat、DefConなどのカンファレンスでプレゼンテーションをするのが好きである。
マティアスは、15年以上のソフトウェアセキュリティの実務経験を持つ研究者・開発者です。フォーティファイ・ソフトウェア社や自身の会社(Sensei Security)などでソリューションを開発してきました。キャリアの中で、Matiasは、商用製品につながる複数のアプリケーションセキュリティ研究プロジェクトを主導し、10件以上の特許を取得しています。また、RSAカンファレンス、Black Hat、DefCon、BSIMM、OWASP AppSec、BruConなどの世界的なカンファレンスで定期的に講演を行っているほか、高度なアプリケーションセキュリティトレーニング(courses )の講師も務めています。
Matiasはゲント大学でコンピュータ工学の博士号を取得し、アプリケーションの内部構造を隠すためのプログラム難読化によるアプリケーションセキュリティを研究しました。
この記事のバージョンは Cybersecurity Insidersに掲載された。 この記事は更新され、ここにシンジケートされている。
大規模言語モデル(LLM)コード作成者から洗練されたエージェント型AIエージェントまで、人工知能アシスタントの採用は、ソフトウェア開発者に豊かな恩恵をもたらす。しかし、マサチューセッツ工科大学(MIT)の新しい研究によって強調された最近の知見は、警告を発している。
AIに関連するセキュリティリスクがAIの導入と歩調を合わせて増大しているソフトウェアの状況を考えると、このような認知的適性の喪失は、実際に破滅的な結果をもたらす可能性がある。ソフトウェア開発ライフサイクル(SDLC)の早い段階で、セキュリティの脆弱性を積極的に特定し、理解し、緩和することは、開発者と組織にとって倫理的な必須事項である。この義務を怠る者は、憂慮すべきことに、今日の多くの組織を表しているが、同様に潜在的なセキュリティ脅威の急増に直面する。
生産性や効率性の面でAIを活用するメリットはあまりにも大きいため、AIを活用するかどうかが論点ではない。むしろ、本当の問題は、AIをどのように最も効果的に適用するかということだ。そして、これは、そのコードがどこで生まれたものであれ、そのコードを深く理解するセキュリティに精通した開発者によって行われるのが最善なのだ。
AIへの過度の依存は認知機能低下のリスク
MITのメディアラボが6月初旬に発表した研究では、ボストン近郊の5大学の学生54人を対象に、小論文を書きながら認知機能をテストした。学生たちは、大規模言語モデル(LLM)を使用するグループ、検索エンジンを使用するグループ、外部からの支援を受けずに昔ながらの方法で行うグループの3つに分けられた。研究チームは脳波計(EEG)を使って参加者の脳活動を記録し、認知的関与と認知的負荷を評価した。その結果、昔ながらの「脳だけ」を使ったグループが最も強く、広範囲な神経活動を示し、検索エンジンを使ったグループは中程度の活動を示し、LLM(今回はOpenAIのChatGPT-4)を使ったグループは最も少ない脳活動を示した。
これは特に驚くべきことではないかもしれない。結局のところ、自分の代わりに思考してくれるツールを使えば、思考することは少なくなるのだから。しかし、この調査では、LLMユーザーは論文との結びつきが弱いことも明らかになった:83%の学生は、エッセイを書き終えた数分後でも、その内容を思い出すのに苦労しており、正確な引用を行えた学生は一人もいなかった。他のグループに比べて、著者の所有者意識が欠けていた。脳のみの参加者は、最も高い当事者意識を持ち、最も幅広い脳活動を示しただけでなく、最も独創的な論文を作成した。LLMグループの結果はより均質であり、実際、審査員によってAIの仕事であると簡単に見分けられた。
開発者の観点からすると、重要な結果はAIの使用から生じる批判的思考の低下である。もちろん、1回だけAIに頼れば本質的な思考スキルが失われることはないかもしれないが、長期間にわたって使い続けると、そのスキルが萎縮してしまう可能性がある。この研究は、ユーザーがAIを助けるのではなく、AIがユーザーを助けることで、AIを使用しながらもクリティカル・シンキングを維持する方法を提案している。しかし、本当の重点は、開発者が安全なソフトウェアを構築するために必要なセキュリティ・スキルを確実に身につけ、そのスキルを日常的かつ不可欠な業務として使用することでなければならない。
開発者教育:AI主導のエコシステムに不可欠
MITのような研究がAIの導入を止めることはないだろう。スタンフォード大学の2025年AI指数レポートでは、2023年の55%に対し、2024年には78%の組織がAIを使用していると報告している。このような成長は今後も続くと予想される。しかし、利用の増加はリスクの増加にも反映される:同レポートによると、AI関連のサイバーセキュリティ・インシデントは同時期に56%増加した。
スタンフォード大学の報告書は、AIガバナンスの改善が極めて重要であることを強調している。実質的にすべての組織がAIのリスクを認識しているにもかかわらず、それに対して何かを行っているのは3分の2以下であり、多くのサイバーセキュリティの脅威にさらされやすく、ますます厳しくなる規制コンプライアンス要件に違反する可能性がある。
その答えがAIの利用をやめることではないのなら(誰もやらないだろうが)、AIをより安全かつ確実に利用することでなければならない。MITの研究は、そのための一つのヒントを与えてくれる。それは、ChatGPTに助けを求める前に自分でエッセイを書き始めた人たち(研究ではBrain-to-LLMグループとして知られている)と、ChatGPTに個人的な注意を払う前に初稿を書き上げさせた人たち(LLM-to-Brainグループとして知られている)である。Brain-to-LLMグループは、すでに下書きしたエッセイの書き直しをAIツールで支援し、より高い想起と脳活動を示した。AIに小論文を書かせたLLM-to-Brainグループは、協調的な神経活動が少なく、LLMの語彙を使うことに偏っていた。
Brain-to-LLMアプローチは、ユーザーの頭脳を少し鋭敏に保つのに役立つかもしれないが、開発者は、ソフトウェアを安全に記述し、AIが生成したコードにエラーやセキュリティリスクがないかどうかを批判的に評価するための具体的な知識も必要とする。開発者は、プロンプト・インジェクション攻撃に対する脆弱性など、セキュリティ上の欠陥を導入する傾向を含む、AIの限界を理解する必要がある。
これには、企業全体のセキュリティ優先の文化の一環として、開発者が効果的で、柔軟で、実践的で、継続的なスキルアップを受けられるような、人間中心の SDLC を確保するために、企業のセキュリティプログラムを抜本的に見直す必要がある。開発者は、急速に進化する高度な脅威、特にソフトウェア開発における AI の重要な役割によって引き起こされる脅威に後れを取らないように、継続的にスキルを磨く必要がある。これにより、例えば、ますます一般的になっているプロンプト・インジェクション攻撃から身を守ることができる。しかし、この保護が機能するためには、組織は、安全なデザインパターンと脅威のモデリングに焦点を当てた開発者主導のイニシアチブを必要としている。
結論
LLMやエージェントが力仕事をすると、ユーザーは受動的な傍観者になってしまう。これは、「批判的思考力の低下、教材に対する深い理解の低下、長期記憶の形成の低下」につながると、この研究の著者は述べている。認知的関与のレベルの低下は、意思決定能力の低下にもつながる。
サイバーセキュリティに関して、組織は批判的思考の欠如を許されない。高度に分散されたクラウドベースの環境におけるソフトウェアの欠陥は、サイバー攻撃者の最大の標的となっているため、サイバーセキュリティは、開発者、AIアシスタント、エージェント型エージェントのいずれが作成したものであっても、安全なコードを確保することから始まる。AIのすべての力に対して、組織はこれまで以上に高度に研ぎ澄まされた問題解決能力と批判的思考能力を必要としている。そして、それはAIにアウトソーシングすることはできない。
SCW Trust Agentの新しいAI機能は、セキュリティを犠牲にすることなく、SDLCにおけるAIの採用を自信を持って管理するために必要な、深い観測性と制御性を提供します。 詳細はこちら.
目次
Matias Madou, Ph.D. セキュリティ専門家、研究者、CTO兼共同設立者(Secure Code Warrior )。Ghent大学でアプリケーションセキュリティの博士号を取得し、静的解析ソリューションに焦点を当てた。その後、米国Fortify社に入社し、開発者が安全なコードを書くことを支援せずに、コードの問題を検出するだけでは不十分であることに気づきました。開発者を支援し、セキュリティの負担を軽減し、お客様の期待を上回る製品を開発することを志すようになった。Team Awesomeの一員としてデスクワークをしていないときは、RSA Conference、BlackHat、DefConなどのカンファレンスでプレゼンテーションをするのが好きである。

Secure Code Warrior は、ソフトウェア開発ライフサイクル全体にわたってコードを保護し、サイバーセキュリティを最優先とする企業文化を創造するために、お客様の組織を支援します。AppSec マネージャー、開発者、CISO、またはセキュリティに関わるすべての人が、安全でないコードに関連するリスクを減らすことができるよう、支援します。
デモを予約するダウンロード始めるためのリソース
Trust Agent:AI - Secure and scale AI-Drive development
AI is writing code. Who’s governing it? With up to 50% of AI-generated code containing security weaknesses, managing AI risk is critical. Discover how SCW's Trust Agent: AI provides the real-time visibility, proactive governance, and targeted upskilling needed to scale AI-driven development securely.
OpenText アプリケーションセキュリティのパワー + Secure Code Warrior
OpenText Application Security and Secure Code Warrior combine vulnerability detection with AI Software Governance and developer capability. Together, they help organizations reduce risk, strengthen secure coding practices, and confidently adopt AI-driven development.
Secure Code Warrior corporate overview
Secure Code Warrior is an AI Software Governance platform designed to enable organizations to safely adopt AI-driven development by bridging the gap between development velocity and enterprise security. The platform addresses the "Visibility Gap," where security teams often lack insights into shadow AI coding tools and the origins of production code.
セキュアコード・トレーニングのトピックと内容
Our industry-leading content is always evolving to fit the ever changing software development landscape with your role in mind. Topics covering everything from AI to XQuery Injection, offered for a variety of roles from Architects and Engineers to Product Managers and QA. Get a sneak peek of what our content catalog has to offer by topic and role.
始めるためのリソース
Observe and Secure the ADLC: A Four-Point Framework for CISOs and Development Teams Using AI
While development teams look to make the most of GenAI’s undeniable benefits, we’d like to propose a four-point foundational framework that will allow security leaders to deploy AI coding tools and agents with a higher, more relevant standard of security best practices. It details exactly what enterprises can do to ensure safe, secure code development right now, and as agentic AI becomes an even bigger factor in the future.






