ヒーロー背景(区切りなし)
ブログ

AIを活用したセキュアなソフトウェア開発におけるクリティカル・シンキングの回復

マティアス・マドゥ博士
2025年11月18日 発行
最終更新日: 2026年2月13日

この記事のバージョンは Cybersecurity Insidersに掲載された。 この記事は更新され、ここにシンジケートされている。

大規模言語モデル(LLM)コード作成者から洗練されたエージェント型AIエージェントまで、人工知能アシスタントの採用は、ソフトウェア開発者に豊かな恩恵をもたらす。しかし、マサチューセッツ工科大学(MIT)の新しい研究によって強調された最近の知見は、警告を発している。

AIに関連するセキュリティリスクがAIの導入と歩調を合わせて増大しているソフトウェアの状況を考えると、このような認知的適性の喪失は、実際に破滅的な結果をもたらす可能性がある。ソフトウェア開発ライフサイクル(SDLC)の早い段階で、セキュリティの脆弱性を積極的に特定し、理解し、緩和することは、開発者と組織にとって倫理的な必須事項である。この義務を怠る者は、憂慮すべきことに、今日の多くの組織を表しているが、同様に潜在的なセキュリティ脅威の急増に直面する。

生産性や効率性の面でAIを活用するメリットはあまりにも大きいため、AIを活用するかどうかが論点ではない。むしろ、本当の問題は、AIをどのように最も効果的に適用するかということだ。そして、これは、そのコードがどこで生まれたものであれ、そのコードを深く理解するセキュリティに精通した開発者によって行われるのが最善なのだ。

AIへの過度の依存は認知機能低下のリスク

MITのメディアラボが6月初旬に発表した研究では、ボストン近郊の5大学の学生54人を対象に、小論文を書きながら認知機能をテストした。学生たちは、大規模言語モデル(LLM)を使用するグループ、検索エンジンを使用するグループ、外部からの支援を受けずに昔ながらの方法で行うグループの3つに分けられた。研究チームは脳波計(EEG)を使って参加者の脳活動を記録し、認知的関与と認知的負荷を評価した。その結果、昔ながらの「脳だけ」を使ったグループが最も強く、広範囲な神経活動を示し、検索エンジンを使ったグループは中程度の活動を示し、LLM(今回はOpenAIのChatGPT-4)を使ったグループは最も少ない脳活動を示した。

これは特に驚くべきことではないかもしれない。結局のところ、自分の代わりに思考してくれるツールを使えば、思考することは少なくなるのだから。しかし、この調査では、LLMユーザーは論文との結びつきが弱いことも明らかになった:83%の学生は、エッセイを書き終えた数分後でも、その内容を思い出すのに苦労しており、正確な引用を行えた学生は一人もいなかった。他のグループに比べて、著者の所有者意識が欠けていた。脳のみの参加者は、最も高い当事者意識を持ち、最も幅広い脳活動を示しただけでなく、最も独創的な論文を作成した。LLMグループの結果はより均質であり、実際、審査員によってAIの仕事であると簡単に見分けられた。

開発者の観点からすると、重要な結果はAIの使用から生じる批判的思考の低下である。もちろん、1回だけAIに頼れば本質的な思考スキルが失われることはないかもしれないが、長期間にわたって使い続けると、そのスキルが萎縮してしまう可能性がある。この研究は、ユーザーがAIを助けるのではなく、AIがユーザーを助けることで、AIを使用しながらもクリティカル・シンキングを維持する方法を提案している。しかし、本当の重点は、開発者が安全なソフトウェアを構築するために必要なセキュリティ・スキルを確実に身につけ、そのスキルを日常的かつ不可欠な業務として使用することでなければならない。

開発者教育:AI主導のエコシステムに不可欠

MITのような研究がAIの導入を止めることはないだろう。スタンフォード大学の2025年AI指数レポートでは、2023年の55%に対し、2024年には78%の組織がAIを使用していると報告している。このような成長は今後も続くと予想される。しかし、利用の増加はリスクの増加にも反映される:同レポートによると、AI関連のサイバーセキュリティ・インシデントは同時期に56%増加した。 

スタンフォード大学の報告書は、AIガバナンスの改善が極めて重要であることを強調している。実質的にすべての組織がAIのリスクを認識しているにもかかわらず、それに対して何かを行っているのは3分の2以下であり、多くのサイバーセキュリティの脅威にさらされやすく、ますます厳しくなる規制コンプライアンス要件に違反する可能性がある。

その答えがAIの利用をやめることではないのなら(誰もやらないだろうが)、AIをより安全かつ確実に利用することでなければならない。MITの研究は、そのための一つのヒントを与えてくれる。それは、ChatGPTに助けを求める前に自分でエッセイを書き始めた人たち(研究ではBrain-to-LLMグループとして知られている)と、ChatGPTに個人的な注意を払う前に初稿を書き上げさせた人たち(LLM-to-Brainグループとして知られている)である。Brain-to-LLMグループは、すでに下書きしたエッセイの書き直しをAIツールで支援し、より高い想起と脳活動を示した。AIに小論文を書かせたLLM-to-Brainグループは、協調的な神経活動が少なく、LLMの語彙を使うことに偏っていた。

Brain-to-LLMアプローチは、ユーザーの頭脳を少し鋭敏に保つのに役立つかもしれないが、開発者は、ソフトウェアを安全に記述し、AIが生成したコードにエラーやセキュリティリスクがないかどうかを批判的に評価するための具体的な知識も必要とする。開発者は、プロンプト・インジェクション攻撃に対する脆弱性など、セキュリティ上の欠陥を導入する傾向を含む、AIの限界を理解する必要がある。

これには、企業全体のセキュリティ優先の文化の一環として、開発者が効果的で、柔軟で、実践的で、継続的なスキルアップを受けられるような、人間中心の SDLC を確保するために、企業のセキュリティプログラムを抜本的に見直す必要がある。開発者は、急速に進化する高度な脅威、特にソフトウェア開発における AI の重要な役割によって引き起こされる脅威に後れを取らないように、継続的にスキルを磨く必要がある。これにより、例えば、ますます一般的になっているプロンプト・インジェクション攻撃から身を守ることができる。しかし、この保護が機能するためには、組織は、安全なデザインパターンと脅威のモデリングに焦点を当てた開発者主導のイニシアチブを必要としている。

結論

LLMやエージェントが力仕事をすると、ユーザーは受動的な傍観者になってしまう。これは、「批判的思考力の低下、教材に対する深い理解の低下、長期記憶の形成の低下」につながると、この研究の著者は述べている。認知的関与のレベルの低下は、意思決定能力の低下にもつながる。 

サイバーセキュリティに関して、組織は批判的思考の欠如を許されない。高度に分散されたクラウドベースの環境におけるソフトウェアの欠陥は、サイバー攻撃者の最大の標的となっているため、サイバーセキュリティは、開発者、AIアシスタント、エージェント型エージェントのいずれが作成したものであっても、安全なコードを確保することから始まる。AIのすべての力に対して、組織はこれまで以上に高度に研ぎ澄まされた問題解決能力と批判的思考能力を必要としている。そして、それはAIにアウトソーシングすることはできない。

SCW Trust Agentの新しいAI機能は、セキュリティを犠牲にすることなく、SDLCにおけるAIの採用を自信を持って管理するために必要な、深い観測性と制御性を提供します。 詳細はこちら.

リソースを表示する
リソースを表示する

AIの議論は、使用方法ではなく、アプリケーションについてです。コードを深く理解する開発者に頼ることで、AIの生産性向上と強固なセキュリティの必要性を両立させる方法をご覧ください。

さらに詳しく知りたいですか?

Matias Madou, Ph.D. est expert en sécurité, chercheur, directeur technique et cofondateur de Secure Code Warrior. Matias a obtenu son doctorat en sécurité des applications à l'université de Gand, en se concentrant sur les solutions d'analyse statique. Il a ensuite rejoint Fortify aux États-Unis, où il s'est rendu compte qu'il ne suffisait pas de détecter uniquement les problèmes de code sans aider les développeurs à écrire du code sécurisé. Cela l'a incité à développer des produits qui aident les développeurs, allègent le fardeau de la sécurité et dépassent les attentes des clients. Lorsqu'il n'est pas à son bureau au sein de Team Awesome, il aime être sur scène pour faire des présentations lors de conférences telles que RSA Conference, BlackHat et DefCon.

もっと詳しく

Secure Code Warrior ソフトウェア開発ライフサイクル全体を通じてコードのセキュリティを確保し、サイバーセキュリティを最優先事項とする文化を構築するために、組織をSecure Code Warrior 。アプリケーションセキュリティ担当者、開発者、情報セキュリティ責任者、その他セキュリティに関わるあらゆる方々のために、当社は組織が非セキュアなコードに関連するリスクを軽減するお手伝いをいたします。

デモを予約する
共有する:
リンクトインのブランドソーシャルx ロゴ
作者
マティアス・マドゥ博士
2025年11月18日発行

Matias Madou, Ph.D. est expert en sécurité, chercheur, directeur technique et cofondateur de Secure Code Warrior. Matias a obtenu son doctorat en sécurité des applications à l'université de Gand, en se concentrant sur les solutions d'analyse statique. Il a ensuite rejoint Fortify aux États-Unis, où il s'est rendu compte qu'il ne suffisait pas de détecter uniquement les problèmes de code sans aider les développeurs à écrire du code sécurisé. Cela l'a incité à développer des produits qui aident les développeurs, allègent le fardeau de la sécurité et dépassent les attentes des clients. Lorsqu'il n'est pas à son bureau au sein de Team Awesome, il aime être sur scène pour faire des présentations lors de conférences telles que RSA Conference, BlackHat et DefCon.

Matias est un chercheur et développeur qui possède plus de 15 ans d'expérience pratique en matière de sécurité logicielle. Il a développé des solutions pour des entreprises telles que Fortify Software et sa propre société Sensei Security. Au cours de sa carrière, Matias a dirigé de nombreux projets de recherche sur la sécurité des applications qui ont abouti à des produits commerciaux et possède plus de 10 brevets à son actif. Lorsqu'il n'est pas à son bureau, Matias a enseigné des cours de formation avancée sur la sécurité des applications et prend régulièrement la parole lors de conférences mondiales telles que RSA Conference, Black Hat, DefCon, BSIMM, OWASP AppSec et BruCon.

Matias est titulaire d'un doctorat en génie informatique de l'université de Gand, où il a étudié la sécurité des applications par le biais de l'obfuscation de programmes pour masquer le fonctionnement interne d'une application.

共有する:
リンクトインのブランドソーシャルx ロゴ

この記事のバージョンは Cybersecurity Insidersに掲載された。 この記事は更新され、ここにシンジケートされている。

大規模言語モデル(LLM)コード作成者から洗練されたエージェント型AIエージェントまで、人工知能アシスタントの採用は、ソフトウェア開発者に豊かな恩恵をもたらす。しかし、マサチューセッツ工科大学(MIT)の新しい研究によって強調された最近の知見は、警告を発している。

AIに関連するセキュリティリスクがAIの導入と歩調を合わせて増大しているソフトウェアの状況を考えると、このような認知的適性の喪失は、実際に破滅的な結果をもたらす可能性がある。ソフトウェア開発ライフサイクル(SDLC)の早い段階で、セキュリティの脆弱性を積極的に特定し、理解し、緩和することは、開発者と組織にとって倫理的な必須事項である。この義務を怠る者は、憂慮すべきことに、今日の多くの組織を表しているが、同様に潜在的なセキュリティ脅威の急増に直面する。

生産性や効率性の面でAIを活用するメリットはあまりにも大きいため、AIを活用するかどうかが論点ではない。むしろ、本当の問題は、AIをどのように最も効果的に適用するかということだ。そして、これは、そのコードがどこで生まれたものであれ、そのコードを深く理解するセキュリティに精通した開発者によって行われるのが最善なのだ。

AIへの過度の依存は認知機能低下のリスク

MITのメディアラボが6月初旬に発表した研究では、ボストン近郊の5大学の学生54人を対象に、小論文を書きながら認知機能をテストした。学生たちは、大規模言語モデル(LLM)を使用するグループ、検索エンジンを使用するグループ、外部からの支援を受けずに昔ながらの方法で行うグループの3つに分けられた。研究チームは脳波計(EEG)を使って参加者の脳活動を記録し、認知的関与と認知的負荷を評価した。その結果、昔ながらの「脳だけ」を使ったグループが最も強く、広範囲な神経活動を示し、検索エンジンを使ったグループは中程度の活動を示し、LLM(今回はOpenAIのChatGPT-4)を使ったグループは最も少ない脳活動を示した。

これは特に驚くべきことではないかもしれない。結局のところ、自分の代わりに思考してくれるツールを使えば、思考することは少なくなるのだから。しかし、この調査では、LLMユーザーは論文との結びつきが弱いことも明らかになった:83%の学生は、エッセイを書き終えた数分後でも、その内容を思い出すのに苦労しており、正確な引用を行えた学生は一人もいなかった。他のグループに比べて、著者の所有者意識が欠けていた。脳のみの参加者は、最も高い当事者意識を持ち、最も幅広い脳活動を示しただけでなく、最も独創的な論文を作成した。LLMグループの結果はより均質であり、実際、審査員によってAIの仕事であると簡単に見分けられた。

開発者の観点からすると、重要な結果はAIの使用から生じる批判的思考の低下である。もちろん、1回だけAIに頼れば本質的な思考スキルが失われることはないかもしれないが、長期間にわたって使い続けると、そのスキルが萎縮してしまう可能性がある。この研究は、ユーザーがAIを助けるのではなく、AIがユーザーを助けることで、AIを使用しながらもクリティカル・シンキングを維持する方法を提案している。しかし、本当の重点は、開発者が安全なソフトウェアを構築するために必要なセキュリティ・スキルを確実に身につけ、そのスキルを日常的かつ不可欠な業務として使用することでなければならない。

開発者教育:AI主導のエコシステムに不可欠

MITのような研究がAIの導入を止めることはないだろう。スタンフォード大学の2025年AI指数レポートでは、2023年の55%に対し、2024年には78%の組織がAIを使用していると報告している。このような成長は今後も続くと予想される。しかし、利用の増加はリスクの増加にも反映される:同レポートによると、AI関連のサイバーセキュリティ・インシデントは同時期に56%増加した。 

スタンフォード大学の報告書は、AIガバナンスの改善が極めて重要であることを強調している。実質的にすべての組織がAIのリスクを認識しているにもかかわらず、それに対して何かを行っているのは3分の2以下であり、多くのサイバーセキュリティの脅威にさらされやすく、ますます厳しくなる規制コンプライアンス要件に違反する可能性がある。

その答えがAIの利用をやめることではないのなら(誰もやらないだろうが)、AIをより安全かつ確実に利用することでなければならない。MITの研究は、そのための一つのヒントを与えてくれる。それは、ChatGPTに助けを求める前に自分でエッセイを書き始めた人たち(研究ではBrain-to-LLMグループとして知られている)と、ChatGPTに個人的な注意を払う前に初稿を書き上げさせた人たち(LLM-to-Brainグループとして知られている)である。Brain-to-LLMグループは、すでに下書きしたエッセイの書き直しをAIツールで支援し、より高い想起と脳活動を示した。AIに小論文を書かせたLLM-to-Brainグループは、協調的な神経活動が少なく、LLMの語彙を使うことに偏っていた。

Brain-to-LLMアプローチは、ユーザーの頭脳を少し鋭敏に保つのに役立つかもしれないが、開発者は、ソフトウェアを安全に記述し、AIが生成したコードにエラーやセキュリティリスクがないかどうかを批判的に評価するための具体的な知識も必要とする。開発者は、プロンプト・インジェクション攻撃に対する脆弱性など、セキュリティ上の欠陥を導入する傾向を含む、AIの限界を理解する必要がある。

これには、企業全体のセキュリティ優先の文化の一環として、開発者が効果的で、柔軟で、実践的で、継続的なスキルアップを受けられるような、人間中心の SDLC を確保するために、企業のセキュリティプログラムを抜本的に見直す必要がある。開発者は、急速に進化する高度な脅威、特にソフトウェア開発における AI の重要な役割によって引き起こされる脅威に後れを取らないように、継続的にスキルを磨く必要がある。これにより、例えば、ますます一般的になっているプロンプト・インジェクション攻撃から身を守ることができる。しかし、この保護が機能するためには、組織は、安全なデザインパターンと脅威のモデリングに焦点を当てた開発者主導のイニシアチブを必要としている。

結論

LLMやエージェントが力仕事をすると、ユーザーは受動的な傍観者になってしまう。これは、「批判的思考力の低下、教材に対する深い理解の低下、長期記憶の形成の低下」につながると、この研究の著者は述べている。認知的関与のレベルの低下は、意思決定能力の低下にもつながる。 

サイバーセキュリティに関して、組織は批判的思考の欠如を許されない。高度に分散されたクラウドベースの環境におけるソフトウェアの欠陥は、サイバー攻撃者の最大の標的となっているため、サイバーセキュリティは、開発者、AIアシスタント、エージェント型エージェントのいずれが作成したものであっても、安全なコードを確保することから始まる。AIのすべての力に対して、組織はこれまで以上に高度に研ぎ澄まされた問題解決能力と批判的思考能力を必要としている。そして、それはAIにアウトソーシングすることはできない。

SCW Trust Agentの新しいAI機能は、セキュリティを犠牲にすることなく、SDLCにおけるAIの採用を自信を持って管理するために必要な、深い観測性と制御性を提供します。 詳細はこちら.

リソースを表示する
リソースを表示する

以下のフォームに記入してレポートをダウンロードしてください

当社製品および/またはセキュアコーディング関連の情報をお送りするにあたり、ご承諾を頂戴できれば幸いです。お客様の個人情報は常に細心の注意をもって取り扱い、マーケティング目的で他社に販売することは一切ございません。

提出する
SCW アイコン
SCWエラーアイコン
フォームを送信するには、Analyticsクッキーを有効にしてください。完了後は再度無効化しても構いません。

この記事のバージョンは Cybersecurity Insidersに掲載された。 この記事は更新され、ここにシンジケートされている。

大規模言語モデル(LLM)コード作成者から洗練されたエージェント型AIエージェントまで、人工知能アシスタントの採用は、ソフトウェア開発者に豊かな恩恵をもたらす。しかし、マサチューセッツ工科大学(MIT)の新しい研究によって強調された最近の知見は、警告を発している。

AIに関連するセキュリティリスクがAIの導入と歩調を合わせて増大しているソフトウェアの状況を考えると、このような認知的適性の喪失は、実際に破滅的な結果をもたらす可能性がある。ソフトウェア開発ライフサイクル(SDLC)の早い段階で、セキュリティの脆弱性を積極的に特定し、理解し、緩和することは、開発者と組織にとって倫理的な必須事項である。この義務を怠る者は、憂慮すべきことに、今日の多くの組織を表しているが、同様に潜在的なセキュリティ脅威の急増に直面する。

生産性や効率性の面でAIを活用するメリットはあまりにも大きいため、AIを活用するかどうかが論点ではない。むしろ、本当の問題は、AIをどのように最も効果的に適用するかということだ。そして、これは、そのコードがどこで生まれたものであれ、そのコードを深く理解するセキュリティに精通した開発者によって行われるのが最善なのだ。

AIへの過度の依存は認知機能低下のリスク

MITのメディアラボが6月初旬に発表した研究では、ボストン近郊の5大学の学生54人を対象に、小論文を書きながら認知機能をテストした。学生たちは、大規模言語モデル(LLM)を使用するグループ、検索エンジンを使用するグループ、外部からの支援を受けずに昔ながらの方法で行うグループの3つに分けられた。研究チームは脳波計(EEG)を使って参加者の脳活動を記録し、認知的関与と認知的負荷を評価した。その結果、昔ながらの「脳だけ」を使ったグループが最も強く、広範囲な神経活動を示し、検索エンジンを使ったグループは中程度の活動を示し、LLM(今回はOpenAIのChatGPT-4)を使ったグループは最も少ない脳活動を示した。

これは特に驚くべきことではないかもしれない。結局のところ、自分の代わりに思考してくれるツールを使えば、思考することは少なくなるのだから。しかし、この調査では、LLMユーザーは論文との結びつきが弱いことも明らかになった:83%の学生は、エッセイを書き終えた数分後でも、その内容を思い出すのに苦労しており、正確な引用を行えた学生は一人もいなかった。他のグループに比べて、著者の所有者意識が欠けていた。脳のみの参加者は、最も高い当事者意識を持ち、最も幅広い脳活動を示しただけでなく、最も独創的な論文を作成した。LLMグループの結果はより均質であり、実際、審査員によってAIの仕事であると簡単に見分けられた。

開発者の観点からすると、重要な結果はAIの使用から生じる批判的思考の低下である。もちろん、1回だけAIに頼れば本質的な思考スキルが失われることはないかもしれないが、長期間にわたって使い続けると、そのスキルが萎縮してしまう可能性がある。この研究は、ユーザーがAIを助けるのではなく、AIがユーザーを助けることで、AIを使用しながらもクリティカル・シンキングを維持する方法を提案している。しかし、本当の重点は、開発者が安全なソフトウェアを構築するために必要なセキュリティ・スキルを確実に身につけ、そのスキルを日常的かつ不可欠な業務として使用することでなければならない。

開発者教育:AI主導のエコシステムに不可欠

MITのような研究がAIの導入を止めることはないだろう。スタンフォード大学の2025年AI指数レポートでは、2023年の55%に対し、2024年には78%の組織がAIを使用していると報告している。このような成長は今後も続くと予想される。しかし、利用の増加はリスクの増加にも反映される:同レポートによると、AI関連のサイバーセキュリティ・インシデントは同時期に56%増加した。 

スタンフォード大学の報告書は、AIガバナンスの改善が極めて重要であることを強調している。実質的にすべての組織がAIのリスクを認識しているにもかかわらず、それに対して何かを行っているのは3分の2以下であり、多くのサイバーセキュリティの脅威にさらされやすく、ますます厳しくなる規制コンプライアンス要件に違反する可能性がある。

その答えがAIの利用をやめることではないのなら(誰もやらないだろうが)、AIをより安全かつ確実に利用することでなければならない。MITの研究は、そのための一つのヒントを与えてくれる。それは、ChatGPTに助けを求める前に自分でエッセイを書き始めた人たち(研究ではBrain-to-LLMグループとして知られている)と、ChatGPTに個人的な注意を払う前に初稿を書き上げさせた人たち(LLM-to-Brainグループとして知られている)である。Brain-to-LLMグループは、すでに下書きしたエッセイの書き直しをAIツールで支援し、より高い想起と脳活動を示した。AIに小論文を書かせたLLM-to-Brainグループは、協調的な神経活動が少なく、LLMの語彙を使うことに偏っていた。

Brain-to-LLMアプローチは、ユーザーの頭脳を少し鋭敏に保つのに役立つかもしれないが、開発者は、ソフトウェアを安全に記述し、AIが生成したコードにエラーやセキュリティリスクがないかどうかを批判的に評価するための具体的な知識も必要とする。開発者は、プロンプト・インジェクション攻撃に対する脆弱性など、セキュリティ上の欠陥を導入する傾向を含む、AIの限界を理解する必要がある。

これには、企業全体のセキュリティ優先の文化の一環として、開発者が効果的で、柔軟で、実践的で、継続的なスキルアップを受けられるような、人間中心の SDLC を確保するために、企業のセキュリティプログラムを抜本的に見直す必要がある。開発者は、急速に進化する高度な脅威、特にソフトウェア開発における AI の重要な役割によって引き起こされる脅威に後れを取らないように、継続的にスキルを磨く必要がある。これにより、例えば、ますます一般的になっているプロンプト・インジェクション攻撃から身を守ることができる。しかし、この保護が機能するためには、組織は、安全なデザインパターンと脅威のモデリングに焦点を当てた開発者主導のイニシアチブを必要としている。

結論

LLMやエージェントが力仕事をすると、ユーザーは受動的な傍観者になってしまう。これは、「批判的思考力の低下、教材に対する深い理解の低下、長期記憶の形成の低下」につながると、この研究の著者は述べている。認知的関与のレベルの低下は、意思決定能力の低下にもつながる。 

サイバーセキュリティに関して、組織は批判的思考の欠如を許されない。高度に分散されたクラウドベースの環境におけるソフトウェアの欠陥は、サイバー攻撃者の最大の標的となっているため、サイバーセキュリティは、開発者、AIアシスタント、エージェント型エージェントのいずれが作成したものであっても、安全なコードを確保することから始まる。AIのすべての力に対して、組織はこれまで以上に高度に研ぎ澄まされた問題解決能力と批判的思考能力を必要としている。そして、それはAIにアウトソーシングすることはできない。

SCW Trust Agentの新しいAI機能は、セキュリティを犠牲にすることなく、SDLCにおけるAIの採用を自信を持って管理するために必要な、深い観測性と制御性を提供します。 詳細はこちら.

ウェビナーを表示する
始めましょう
もっと詳しく

以下のリンクをクリックして、このリソースのPDFをダウンロードしてください。

Secure Code Warrior ソフトウェア開発ライフサイクル全体を通じてコードのセキュリティを確保し、サイバーセキュリティを最優先事項とする文化を構築するために、組織をSecure Code Warrior 。アプリケーションセキュリティ担当者、開発者、情報セキュリティ責任者、その他セキュリティに関わるあらゆる方々のために、当社は組織が非セキュアなコードに関連するリスクを軽減するお手伝いをいたします。

レポートを表示するデモを予約する
PDFをダウンロード
リソースを表示する
共有する:
リンクトインのブランドソーシャルx ロゴ
さらに詳しく知りたいですか?

共有する:
リンクトインのブランドソーシャルx ロゴ
作者
マティアス・マドゥ博士
2025年11月18日発行

Matias Madou, Ph.D. est expert en sécurité, chercheur, directeur technique et cofondateur de Secure Code Warrior. Matias a obtenu son doctorat en sécurité des applications à l'université de Gand, en se concentrant sur les solutions d'analyse statique. Il a ensuite rejoint Fortify aux États-Unis, où il s'est rendu compte qu'il ne suffisait pas de détecter uniquement les problèmes de code sans aider les développeurs à écrire du code sécurisé. Cela l'a incité à développer des produits qui aident les développeurs, allègent le fardeau de la sécurité et dépassent les attentes des clients. Lorsqu'il n'est pas à son bureau au sein de Team Awesome, il aime être sur scène pour faire des présentations lors de conférences telles que RSA Conference, BlackHat et DefCon.

Matias est un chercheur et développeur qui possède plus de 15 ans d'expérience pratique en matière de sécurité logicielle. Il a développé des solutions pour des entreprises telles que Fortify Software et sa propre société Sensei Security. Au cours de sa carrière, Matias a dirigé de nombreux projets de recherche sur la sécurité des applications qui ont abouti à des produits commerciaux et possède plus de 10 brevets à son actif. Lorsqu'il n'est pas à son bureau, Matias a enseigné des cours de formation avancée sur la sécurité des applications et prend régulièrement la parole lors de conférences mondiales telles que RSA Conference, Black Hat, DefCon, BSIMM, OWASP AppSec et BruCon.

Matias est titulaire d'un doctorat en génie informatique de l'université de Gand, où il a étudié la sécurité des applications par le biais de l'obfuscation de programmes pour masquer le fonctionnement interne d'une application.

共有する:
リンクトインのブランドソーシャルx ロゴ

この記事のバージョンは Cybersecurity Insidersに掲載された。 この記事は更新され、ここにシンジケートされている。

大規模言語モデル(LLM)コード作成者から洗練されたエージェント型AIエージェントまで、人工知能アシスタントの採用は、ソフトウェア開発者に豊かな恩恵をもたらす。しかし、マサチューセッツ工科大学(MIT)の新しい研究によって強調された最近の知見は、警告を発している。

AIに関連するセキュリティリスクがAIの導入と歩調を合わせて増大しているソフトウェアの状況を考えると、このような認知的適性の喪失は、実際に破滅的な結果をもたらす可能性がある。ソフトウェア開発ライフサイクル(SDLC)の早い段階で、セキュリティの脆弱性を積極的に特定し、理解し、緩和することは、開発者と組織にとって倫理的な必須事項である。この義務を怠る者は、憂慮すべきことに、今日の多くの組織を表しているが、同様に潜在的なセキュリティ脅威の急増に直面する。

生産性や効率性の面でAIを活用するメリットはあまりにも大きいため、AIを活用するかどうかが論点ではない。むしろ、本当の問題は、AIをどのように最も効果的に適用するかということだ。そして、これは、そのコードがどこで生まれたものであれ、そのコードを深く理解するセキュリティに精通した開発者によって行われるのが最善なのだ。

AIへの過度の依存は認知機能低下のリスク

MITのメディアラボが6月初旬に発表した研究では、ボストン近郊の5大学の学生54人を対象に、小論文を書きながら認知機能をテストした。学生たちは、大規模言語モデル(LLM)を使用するグループ、検索エンジンを使用するグループ、外部からの支援を受けずに昔ながらの方法で行うグループの3つに分けられた。研究チームは脳波計(EEG)を使って参加者の脳活動を記録し、認知的関与と認知的負荷を評価した。その結果、昔ながらの「脳だけ」を使ったグループが最も強く、広範囲な神経活動を示し、検索エンジンを使ったグループは中程度の活動を示し、LLM(今回はOpenAIのChatGPT-4)を使ったグループは最も少ない脳活動を示した。

これは特に驚くべきことではないかもしれない。結局のところ、自分の代わりに思考してくれるツールを使えば、思考することは少なくなるのだから。しかし、この調査では、LLMユーザーは論文との結びつきが弱いことも明らかになった:83%の学生は、エッセイを書き終えた数分後でも、その内容を思い出すのに苦労しており、正確な引用を行えた学生は一人もいなかった。他のグループに比べて、著者の所有者意識が欠けていた。脳のみの参加者は、最も高い当事者意識を持ち、最も幅広い脳活動を示しただけでなく、最も独創的な論文を作成した。LLMグループの結果はより均質であり、実際、審査員によってAIの仕事であると簡単に見分けられた。

開発者の観点からすると、重要な結果はAIの使用から生じる批判的思考の低下である。もちろん、1回だけAIに頼れば本質的な思考スキルが失われることはないかもしれないが、長期間にわたって使い続けると、そのスキルが萎縮してしまう可能性がある。この研究は、ユーザーがAIを助けるのではなく、AIがユーザーを助けることで、AIを使用しながらもクリティカル・シンキングを維持する方法を提案している。しかし、本当の重点は、開発者が安全なソフトウェアを構築するために必要なセキュリティ・スキルを確実に身につけ、そのスキルを日常的かつ不可欠な業務として使用することでなければならない。

開発者教育:AI主導のエコシステムに不可欠

MITのような研究がAIの導入を止めることはないだろう。スタンフォード大学の2025年AI指数レポートでは、2023年の55%に対し、2024年には78%の組織がAIを使用していると報告している。このような成長は今後も続くと予想される。しかし、利用の増加はリスクの増加にも反映される:同レポートによると、AI関連のサイバーセキュリティ・インシデントは同時期に56%増加した。 

スタンフォード大学の報告書は、AIガバナンスの改善が極めて重要であることを強調している。実質的にすべての組織がAIのリスクを認識しているにもかかわらず、それに対して何かを行っているのは3分の2以下であり、多くのサイバーセキュリティの脅威にさらされやすく、ますます厳しくなる規制コンプライアンス要件に違反する可能性がある。

その答えがAIの利用をやめることではないのなら(誰もやらないだろうが)、AIをより安全かつ確実に利用することでなければならない。MITの研究は、そのための一つのヒントを与えてくれる。それは、ChatGPTに助けを求める前に自分でエッセイを書き始めた人たち(研究ではBrain-to-LLMグループとして知られている)と、ChatGPTに個人的な注意を払う前に初稿を書き上げさせた人たち(LLM-to-Brainグループとして知られている)である。Brain-to-LLMグループは、すでに下書きしたエッセイの書き直しをAIツールで支援し、より高い想起と脳活動を示した。AIに小論文を書かせたLLM-to-Brainグループは、協調的な神経活動が少なく、LLMの語彙を使うことに偏っていた。

Brain-to-LLMアプローチは、ユーザーの頭脳を少し鋭敏に保つのに役立つかもしれないが、開発者は、ソフトウェアを安全に記述し、AIが生成したコードにエラーやセキュリティリスクがないかどうかを批判的に評価するための具体的な知識も必要とする。開発者は、プロンプト・インジェクション攻撃に対する脆弱性など、セキュリティ上の欠陥を導入する傾向を含む、AIの限界を理解する必要がある。

これには、企業全体のセキュリティ優先の文化の一環として、開発者が効果的で、柔軟で、実践的で、継続的なスキルアップを受けられるような、人間中心の SDLC を確保するために、企業のセキュリティプログラムを抜本的に見直す必要がある。開発者は、急速に進化する高度な脅威、特にソフトウェア開発における AI の重要な役割によって引き起こされる脅威に後れを取らないように、継続的にスキルを磨く必要がある。これにより、例えば、ますます一般的になっているプロンプト・インジェクション攻撃から身を守ることができる。しかし、この保護が機能するためには、組織は、安全なデザインパターンと脅威のモデリングに焦点を当てた開発者主導のイニシアチブを必要としている。

結論

LLMやエージェントが力仕事をすると、ユーザーは受動的な傍観者になってしまう。これは、「批判的思考力の低下、教材に対する深い理解の低下、長期記憶の形成の低下」につながると、この研究の著者は述べている。認知的関与のレベルの低下は、意思決定能力の低下にもつながる。 

サイバーセキュリティに関して、組織は批判的思考の欠如を許されない。高度に分散されたクラウドベースの環境におけるソフトウェアの欠陥は、サイバー攻撃者の最大の標的となっているため、サイバーセキュリティは、開発者、AIアシスタント、エージェント型エージェントのいずれが作成したものであっても、安全なコードを確保することから始まる。AIのすべての力に対して、組織はこれまで以上に高度に研ぎ澄まされた問題解決能力と批判的思考能力を必要としている。そして、それはAIにアウトソーシングすることはできない。

SCW Trust Agentの新しいAI機能は、セキュリティを犠牲にすることなく、SDLCにおけるAIの採用を自信を持って管理するために必要な、深い観測性と制御性を提供します。 詳細はこちら.

目次

PDFをダウンロード
リソースを表示する
さらに詳しく知りたいですか?

Matias Madou, Ph.D. est expert en sécurité, chercheur, directeur technique et cofondateur de Secure Code Warrior. Matias a obtenu son doctorat en sécurité des applications à l'université de Gand, en se concentrant sur les solutions d'analyse statique. Il a ensuite rejoint Fortify aux États-Unis, où il s'est rendu compte qu'il ne suffisait pas de détecter uniquement les problèmes de code sans aider les développeurs à écrire du code sécurisé. Cela l'a incité à développer des produits qui aident les développeurs, allègent le fardeau de la sécurité et dépassent les attentes des clients. Lorsqu'il n'est pas à son bureau au sein de Team Awesome, il aime être sur scène pour faire des présentations lors de conférences telles que RSA Conference, BlackHat et DefCon.

もっと詳しく

Secure Code Warrior ソフトウェア開発ライフサイクル全体を通じてコードのセキュリティを確保し、サイバーセキュリティを最優先事項とする文化を構築するために、組織をSecure Code Warrior 。アプリケーションセキュリティ担当者、開発者、情報セキュリティ責任者、その他セキュリティに関わるあらゆる方々のために、当社は組織が非セキュアなコードに関連するリスクを軽減するお手伝いをいたします。

デモを予約するダウンロード
共有する:
リンクトインのブランドソーシャルx ロゴ
リソースセンター

はじめの一歩を踏み出すためのリソース

投稿はありません
リソースセンター

はじめの一歩を踏み出すためのリソース

投稿はありません