
AI/LLMセキュリティ・ビデオ・シリーズ全エピソード、毎週更新
AI/LLMセキュリティ入門シリーズのご案内
GitHub CopilotやCursorなどのAIコーディングツールは、ソフトウェアの構築方法を再構築していますが、安全で信頼性の高いアプリケーションを構築するために開発者が理解しなければならない新たなセキュリティ上の課題ももたらしています。チームがAIを安全に導入できるよう、私たちはYouTubeで12週間の無料AI/LLMセキュリティ入門ビデオシリーズを作成しました。
この投稿は、このシリーズの中心的なハブとなります。毎週、新しいビデオと説明を更新し、プロンプトインジェクション、データとモデルポイズニング、サプライチェーンリスク、セキュアプロンプトなどの重要な概念を取り上げます。このページをブックマークして毎週フォローするか、 YouTubeチャンネルに登録してレッスンが公開されたらすぐに入手しましょう。
この入門編をさらに深く知りたい方は、SCWプラットフォームのAI/LLMコレクションをご覧いただくか、デモをリクエストしてください。YouTubeチャンネルをご登録いただくと、新しいエピソードが公開されるたびにご覧いただけます。また、最新のコンテンツ、アップデート、リソースをご希望の方は、こちらからオプトインして、開発者やセキュリティ・リーダーのコミュニティにご参加ください。
エピソード(毎週更新)
第1週 -AIコーディングのリスク:LLM を使用することの危険性
このビデオでは、コードを書く際に AI/LLM を使用することの潜在的な危険性を探り、AI を搭載したツールをワークフローに組み込む際に開発者が直面する主なリスクを明らかにします。
第2週 - AIコーディングの利点:Secure AI-Assisted Development
ȀAIコーディングツールは危険なだけではない - 安全に使用すれば、開発者の作業を迅速かつスマートにすることができる。このビデオでは、コードを書く際にAI/LLMを使用する利点を探求し、一般的なセキュリティの落とし穴を避けながら、チームが責任を持ってAIを活用する方法を紹介します。
第3週- プロンプト・インジェクションの説明:
プロンプト・インジェクションは、AI/LLMの最も一般的な脆弱性の1つであり、開発者なら誰でも予防法を知っているはずです。このビデオでは
第4週 -機密情報の開示:AIのデータ漏えいを避ける
AIを搭載したツールは、不注意で機密情報を漏えいさせ、アプリケーションやデータを危険にさらす可能性があります。このビデオでは、機密情報漏洩の脆弱性を取り上げ、AI/LLMを使用する際にそれらがどのように発生するかを説明し、開発者が暴露を減らすために取ることができる実践的なステップを共有します。
第5週AIサプライチェーンリスク:
AI支援開発はコーディングを加速させますが、同時にアプリケーションの各レイヤーに影響を与えうるサプライチェーンリスクをもたらします。このビデオでは、AI/LLMに関連する脆弱性を探り、サードパーティのモデルやAPIが攻撃対象領域をどのように拡大するかを説明し、暴露を最小限に抑えるための戦略を共有します。
Week 6 -Data Poisoning:AI モデルと出力の安全性を確保する
■AIシステムの安全性はその学習データによってのみ確保され、侵害された入力はアプリケーション全体に波及する脆弱性を生み出す可能性があります。このビデオでは、データポイズニング攻撃とモデルポイズニング攻撃を紹介し、悪意のある入力がどのようにAIの出力を操作するかを説明し、システムを保護するための戦略を共有します。
第7週- 不適切な出力処理:AI-Generated Code
ȀAIを搭載したツールはコードを高速に生成することができますが、出力が検証されていないと、脆弱性が気づかないうちに忍び込む可能性があります。このビデオでは、AI支援開発における不適切な出力処理を検証し、危険な出力がアプリケーションをどのように危険にさらすかを説明し、生成されたコードを保護するテクニックを共有します。
Week 8 - Excessive Agency:AI Autonomy Risks
︓AIシステムがより自律的に なるにつれ、過剰なエージェンシーは、モデルが意図した範囲を超えて行動する新たなリスクを生み出す。このビデオでは、AI支援開発における過剰なエージェンシーの脆弱性を探り、踏み越えた行動がどのように生じるかを説明し、AI主導のプロセスを制御し続けるための技法について議論する。
Week 9 - System Prompt Leakage: Hidden AI Security Risks
システムプロンプトには、AIの動作を誘導する隠された指示が含まれていることが多いが、これが暴露されると、攻撃者はモデルを操作したり、機密情報を引き出したりすることができる。このビデオでは、システムプロンプトの漏洩の脆弱性を取り上げ、それらがどのように発生するかを説明し、AIを利用したワークフローを保護するために開発者が取るべき手順について説明します。
第10週 ベクトルの弱点:
ȀAIモデルは強力な機能を提供するためにベクターデータベースとエンベッディングに依存することが多いが、誤った設定や安全でない実装は機密データを暴露し、新たな攻撃ベクトルを生み出す可能性がある。このビデオでは、ベクターとエンベッディングの弱点を掘り下げ、一般的なセキュリティ上の課題を説明し、AIを利用した検索ワークフローのセキュリティを確保するための戦略を共有します。
第11週 —AIによる誤情報:幻覚リスクの回避
AIツールは時に、一見正しく見えて実際には誤った出力を生成することがあります。これにより、セキュリティ、信頼性、意思決定に影響を与える誤情報リスクが生じます。本動画では、AI支援コーディングにおける誤情報脆弱性を解説し、誤った出力がどのように発生するかを探るとともに、AI駆動コンテンツを検証・保護するための戦略を共有します。
第12週 — 無制限な消費:AIのDoSリスク防止
AIシステムはリソースを無制限に消費する可能性があり、サービス拒否(DoS)攻撃、データ漏洩、予期せぬ運用障害などのリスクを招きます。本動画では、AI/大規模言語モデル(LLM)における無制限な消費の脆弱性について解説し、その発生メカニズムを説明するとともに、AIリソース使用状況を監視・管理・保護するための実践的な戦略を共有します。
これらの動画はAI/LLMセキュリティの核心概念を紹介するものです。Secure Code Warrior には、さらに多くの探求の余地があります。現実のAI支援型コードレビューと修正をシミュレートするAIチャレンジに挑み、業界のベストプラクティスに沿ったAI/LLMガイドラインを探求し、安全なコーディング習慣を構築する実践的体験を提供するウォークスルー、Missions、クエスト、コーステンプレートに取り組みましょう。 スキル向上を目指すチーム向けに、プラットフォームでは130以上を超えるAI/LLM特化型学習コンテンツを拡充中です。「AIを活用したコーディング」「AIリスク&セキュリティ入門」「LLMアプリケーション向けOWASP Top 10」などのトピックを網羅。詳細についてはデモをご請求ください。


12週間にわたるAI/LLMセキュリティ・ビデオ・シリーズのオールインワン・ガイドです。すべてのエピソードをご覧いただき、AIセキュリティの重要な概念を学び、毎週フォローしてください。
Shannon Holt est une spécialiste de la commercialisation de produits de cybersécurité avec une expérience dans les domaines de la sécurité des applications, des services de sécurité du cloud et des normes de conformité telles que PCI-DSS et HITRUST.

Secure Code Warrior ソフトウェア開発ライフサイクル全体を通じてコードのセキュリティを確保し、サイバーセキュリティを最優先事項とする文化を構築するために、組織をSecure Code Warrior 。アプリケーションセキュリティ担当者、開発者、情報セキュリティ責任者、その他セキュリティに関わるあらゆる方々のために、当社は組織が非セキュアなコードに関連するリスクを軽減するお手伝いをいたします。
デモを予約するShannon Holt est une spécialiste de la commercialisation de produits de cybersécurité avec une expérience dans les domaines de la sécurité des applications, des services de sécurité du cloud et des normes de conformité telles que PCI-DSS et HITRUST.
Shannon Holt est une spécialiste de la commercialisation de produits de cybersécurité avec une expérience dans les domaines de la sécurité des applications, des services de sécurité du cloud et des normes de conformité telles que PCI-DSS et HITRUST. Elle tient à rendre le développement sécurisé et la conformité plus pratiques et plus accessibles pour les équipes techniques, en comblant le fossé entre les attentes en matière de sécurité et les réalités du développement logiciel moderne.


AI/LLMセキュリティ入門シリーズのご案内
GitHub CopilotやCursorなどのAIコーディングツールは、ソフトウェアの構築方法を再構築していますが、安全で信頼性の高いアプリケーションを構築するために開発者が理解しなければならない新たなセキュリティ上の課題ももたらしています。チームがAIを安全に導入できるよう、私たちはYouTubeで12週間の無料AI/LLMセキュリティ入門ビデオシリーズを作成しました。
この投稿は、このシリーズの中心的なハブとなります。毎週、新しいビデオと説明を更新し、プロンプトインジェクション、データとモデルポイズニング、サプライチェーンリスク、セキュアプロンプトなどの重要な概念を取り上げます。このページをブックマークして毎週フォローするか、 YouTubeチャンネルに登録してレッスンが公開されたらすぐに入手しましょう。
この入門編をさらに深く知りたい方は、SCWプラットフォームのAI/LLMコレクションをご覧いただくか、デモをリクエストしてください。YouTubeチャンネルをご登録いただくと、新しいエピソードが公開されるたびにご覧いただけます。また、最新のコンテンツ、アップデート、リソースをご希望の方は、こちらからオプトインして、開発者やセキュリティ・リーダーのコミュニティにご参加ください。
エピソード(毎週更新)
第1週 -AIコーディングのリスク:LLM を使用することの危険性
このビデオでは、コードを書く際に AI/LLM を使用することの潜在的な危険性を探り、AI を搭載したツールをワークフローに組み込む際に開発者が直面する主なリスクを明らかにします。
第2週 - AIコーディングの利点:Secure AI-Assisted Development
ȀAIコーディングツールは危険なだけではない - 安全に使用すれば、開発者の作業を迅速かつスマートにすることができる。このビデオでは、コードを書く際にAI/LLMを使用する利点を探求し、一般的なセキュリティの落とし穴を避けながら、チームが責任を持ってAIを活用する方法を紹介します。
第3週- プロンプト・インジェクションの説明:
プロンプト・インジェクションは、AI/LLMの最も一般的な脆弱性の1つであり、開発者なら誰でも予防法を知っているはずです。このビデオでは
第4週 -機密情報の開示:AIのデータ漏えいを避ける
AIを搭載したツールは、不注意で機密情報を漏えいさせ、アプリケーションやデータを危険にさらす可能性があります。このビデオでは、機密情報漏洩の脆弱性を取り上げ、AI/LLMを使用する際にそれらがどのように発生するかを説明し、開発者が暴露を減らすために取ることができる実践的なステップを共有します。
第5週AIサプライチェーンリスク:
AI支援開発はコーディングを加速させますが、同時にアプリケーションの各レイヤーに影響を与えうるサプライチェーンリスクをもたらします。このビデオでは、AI/LLMに関連する脆弱性を探り、サードパーティのモデルやAPIが攻撃対象領域をどのように拡大するかを説明し、暴露を最小限に抑えるための戦略を共有します。
Week 6 -Data Poisoning:AI モデルと出力の安全性を確保する
■AIシステムの安全性はその学習データによってのみ確保され、侵害された入力はアプリケーション全体に波及する脆弱性を生み出す可能性があります。このビデオでは、データポイズニング攻撃とモデルポイズニング攻撃を紹介し、悪意のある入力がどのようにAIの出力を操作するかを説明し、システムを保護するための戦略を共有します。
第7週- 不適切な出力処理:AI-Generated Code
ȀAIを搭載したツールはコードを高速に生成することができますが、出力が検証されていないと、脆弱性が気づかないうちに忍び込む可能性があります。このビデオでは、AI支援開発における不適切な出力処理を検証し、危険な出力がアプリケーションをどのように危険にさらすかを説明し、生成されたコードを保護するテクニックを共有します。
Week 8 - Excessive Agency:AI Autonomy Risks
︓AIシステムがより自律的に なるにつれ、過剰なエージェンシーは、モデルが意図した範囲を超えて行動する新たなリスクを生み出す。このビデオでは、AI支援開発における過剰なエージェンシーの脆弱性を探り、踏み越えた行動がどのように生じるかを説明し、AI主導のプロセスを制御し続けるための技法について議論する。
Week 9 - System Prompt Leakage: Hidden AI Security Risks
システムプロンプトには、AIの動作を誘導する隠された指示が含まれていることが多いが、これが暴露されると、攻撃者はモデルを操作したり、機密情報を引き出したりすることができる。このビデオでは、システムプロンプトの漏洩の脆弱性を取り上げ、それらがどのように発生するかを説明し、AIを利用したワークフローを保護するために開発者が取るべき手順について説明します。
第10週 ベクトルの弱点:
ȀAIモデルは強力な機能を提供するためにベクターデータベースとエンベッディングに依存することが多いが、誤った設定や安全でない実装は機密データを暴露し、新たな攻撃ベクトルを生み出す可能性がある。このビデオでは、ベクターとエンベッディングの弱点を掘り下げ、一般的なセキュリティ上の課題を説明し、AIを利用した検索ワークフローのセキュリティを確保するための戦略を共有します。
第11週 —AIによる誤情報:幻覚リスクの回避
AIツールは時に、一見正しく見えて実際には誤った出力を生成することがあります。これにより、セキュリティ、信頼性、意思決定に影響を与える誤情報リスクが生じます。本動画では、AI支援コーディングにおける誤情報脆弱性を解説し、誤った出力がどのように発生するかを探るとともに、AI駆動コンテンツを検証・保護するための戦略を共有します。
第12週 — 無制限な消費:AIのDoSリスク防止
AIシステムはリソースを無制限に消費する可能性があり、サービス拒否(DoS)攻撃、データ漏洩、予期せぬ運用障害などのリスクを招きます。本動画では、AI/大規模言語モデル(LLM)における無制限な消費の脆弱性について解説し、その発生メカニズムを説明するとともに、AIリソース使用状況を監視・管理・保護するための実践的な戦略を共有します。
これらの動画はAI/LLMセキュリティの核心概念を紹介するものです。Secure Code Warrior には、さらに多くの探求の余地があります。現実のAI支援型コードレビューと修正をシミュレートするAIチャレンジに挑み、業界のベストプラクティスに沿ったAI/LLMガイドラインを探求し、安全なコーディング習慣を構築する実践的体験を提供するウォークスルー、Missions、クエスト、コーステンプレートに取り組みましょう。 スキル向上を目指すチーム向けに、プラットフォームでは130以上を超えるAI/LLM特化型学習コンテンツを拡充中です。「AIを活用したコーディング」「AIリスク&セキュリティ入門」「LLMアプリケーション向けOWASP Top 10」などのトピックを網羅。詳細についてはデモをご請求ください。

AI/LLMセキュリティ入門シリーズのご案内
GitHub CopilotやCursorなどのAIコーディングツールは、ソフトウェアの構築方法を再構築していますが、安全で信頼性の高いアプリケーションを構築するために開発者が理解しなければならない新たなセキュリティ上の課題ももたらしています。チームがAIを安全に導入できるよう、私たちはYouTubeで12週間の無料AI/LLMセキュリティ入門ビデオシリーズを作成しました。
この投稿は、このシリーズの中心的なハブとなります。毎週、新しいビデオと説明を更新し、プロンプトインジェクション、データとモデルポイズニング、サプライチェーンリスク、セキュアプロンプトなどの重要な概念を取り上げます。このページをブックマークして毎週フォローするか、 YouTubeチャンネルに登録してレッスンが公開されたらすぐに入手しましょう。
この入門編をさらに深く知りたい方は、SCWプラットフォームのAI/LLMコレクションをご覧いただくか、デモをリクエストしてください。YouTubeチャンネルをご登録いただくと、新しいエピソードが公開されるたびにご覧いただけます。また、最新のコンテンツ、アップデート、リソースをご希望の方は、こちらからオプトインして、開発者やセキュリティ・リーダーのコミュニティにご参加ください。
エピソード(毎週更新)
第1週 -AIコーディングのリスク:LLM を使用することの危険性
このビデオでは、コードを書く際に AI/LLM を使用することの潜在的な危険性を探り、AI を搭載したツールをワークフローに組み込む際に開発者が直面する主なリスクを明らかにします。
第2週 - AIコーディングの利点:Secure AI-Assisted Development
ȀAIコーディングツールは危険なだけではない - 安全に使用すれば、開発者の作業を迅速かつスマートにすることができる。このビデオでは、コードを書く際にAI/LLMを使用する利点を探求し、一般的なセキュリティの落とし穴を避けながら、チームが責任を持ってAIを活用する方法を紹介します。
第3週- プロンプト・インジェクションの説明:
プロンプト・インジェクションは、AI/LLMの最も一般的な脆弱性の1つであり、開発者なら誰でも予防法を知っているはずです。このビデオでは
第4週 -機密情報の開示:AIのデータ漏えいを避ける
AIを搭載したツールは、不注意で機密情報を漏えいさせ、アプリケーションやデータを危険にさらす可能性があります。このビデオでは、機密情報漏洩の脆弱性を取り上げ、AI/LLMを使用する際にそれらがどのように発生するかを説明し、開発者が暴露を減らすために取ることができる実践的なステップを共有します。
第5週AIサプライチェーンリスク:
AI支援開発はコーディングを加速させますが、同時にアプリケーションの各レイヤーに影響を与えうるサプライチェーンリスクをもたらします。このビデオでは、AI/LLMに関連する脆弱性を探り、サードパーティのモデルやAPIが攻撃対象領域をどのように拡大するかを説明し、暴露を最小限に抑えるための戦略を共有します。
Week 6 -Data Poisoning:AI モデルと出力の安全性を確保する
■AIシステムの安全性はその学習データによってのみ確保され、侵害された入力はアプリケーション全体に波及する脆弱性を生み出す可能性があります。このビデオでは、データポイズニング攻撃とモデルポイズニング攻撃を紹介し、悪意のある入力がどのようにAIの出力を操作するかを説明し、システムを保護するための戦略を共有します。
第7週- 不適切な出力処理:AI-Generated Code
ȀAIを搭載したツールはコードを高速に生成することができますが、出力が検証されていないと、脆弱性が気づかないうちに忍び込む可能性があります。このビデオでは、AI支援開発における不適切な出力処理を検証し、危険な出力がアプリケーションをどのように危険にさらすかを説明し、生成されたコードを保護するテクニックを共有します。
Week 8 - Excessive Agency:AI Autonomy Risks
︓AIシステムがより自律的に なるにつれ、過剰なエージェンシーは、モデルが意図した範囲を超えて行動する新たなリスクを生み出す。このビデオでは、AI支援開発における過剰なエージェンシーの脆弱性を探り、踏み越えた行動がどのように生じるかを説明し、AI主導のプロセスを制御し続けるための技法について議論する。
Week 9 - System Prompt Leakage: Hidden AI Security Risks
システムプロンプトには、AIの動作を誘導する隠された指示が含まれていることが多いが、これが暴露されると、攻撃者はモデルを操作したり、機密情報を引き出したりすることができる。このビデオでは、システムプロンプトの漏洩の脆弱性を取り上げ、それらがどのように発生するかを説明し、AIを利用したワークフローを保護するために開発者が取るべき手順について説明します。
第10週 ベクトルの弱点:
ȀAIモデルは強力な機能を提供するためにベクターデータベースとエンベッディングに依存することが多いが、誤った設定や安全でない実装は機密データを暴露し、新たな攻撃ベクトルを生み出す可能性がある。このビデオでは、ベクターとエンベッディングの弱点を掘り下げ、一般的なセキュリティ上の課題を説明し、AIを利用した検索ワークフローのセキュリティを確保するための戦略を共有します。
第11週 —AIによる誤情報:幻覚リスクの回避
AIツールは時に、一見正しく見えて実際には誤った出力を生成することがあります。これにより、セキュリティ、信頼性、意思決定に影響を与える誤情報リスクが生じます。本動画では、AI支援コーディングにおける誤情報脆弱性を解説し、誤った出力がどのように発生するかを探るとともに、AI駆動コンテンツを検証・保護するための戦略を共有します。
第12週 — 無制限な消費:AIのDoSリスク防止
AIシステムはリソースを無制限に消費する可能性があり、サービス拒否(DoS)攻撃、データ漏洩、予期せぬ運用障害などのリスクを招きます。本動画では、AI/大規模言語モデル(LLM)における無制限な消費の脆弱性について解説し、その発生メカニズムを説明するとともに、AIリソース使用状況を監視・管理・保護するための実践的な戦略を共有します。
これらの動画はAI/LLMセキュリティの核心概念を紹介するものです。Secure Code Warrior には、さらに多くの探求の余地があります。現実のAI支援型コードレビューと修正をシミュレートするAIチャレンジに挑み、業界のベストプラクティスに沿ったAI/LLMガイドラインを探求し、安全なコーディング習慣を構築する実践的体験を提供するウォークスルー、Missions、クエスト、コーステンプレートに取り組みましょう。 スキル向上を目指すチーム向けに、プラットフォームでは130以上を超えるAI/LLM特化型学習コンテンツを拡充中です。「AIを活用したコーディング」「AIリスク&セキュリティ入門」「LLMアプリケーション向けOWASP Top 10」などのトピックを網羅。詳細についてはデモをご請求ください。

以下のリンクをクリックして、このリソースのPDFをダウンロードしてください。
Secure Code Warrior ソフトウェア開発ライフサイクル全体を通じてコードのセキュリティを確保し、サイバーセキュリティを最優先事項とする文化を構築するために、組織をSecure Code Warrior 。アプリケーションセキュリティ担当者、開発者、情報セキュリティ責任者、その他セキュリティに関わるあらゆる方々のために、当社は組織が非セキュアなコードに関連するリスクを軽減するお手伝いをいたします。
レポートを表示するデモを予約するShannon Holt est une spécialiste de la commercialisation de produits de cybersécurité avec une expérience dans les domaines de la sécurité des applications, des services de sécurité du cloud et des normes de conformité telles que PCI-DSS et HITRUST.
Shannon Holt est une spécialiste de la commercialisation de produits de cybersécurité avec une expérience dans les domaines de la sécurité des applications, des services de sécurité du cloud et des normes de conformité telles que PCI-DSS et HITRUST. Elle tient à rendre le développement sécurisé et la conformité plus pratiques et plus accessibles pour les équipes techniques, en comblant le fossé entre les attentes en matière de sécurité et les réalités du développement logiciel moderne.
AI/LLMセキュリティ入門シリーズのご案内
GitHub CopilotやCursorなどのAIコーディングツールは、ソフトウェアの構築方法を再構築していますが、安全で信頼性の高いアプリケーションを構築するために開発者が理解しなければならない新たなセキュリティ上の課題ももたらしています。チームがAIを安全に導入できるよう、私たちはYouTubeで12週間の無料AI/LLMセキュリティ入門ビデオシリーズを作成しました。
この投稿は、このシリーズの中心的なハブとなります。毎週、新しいビデオと説明を更新し、プロンプトインジェクション、データとモデルポイズニング、サプライチェーンリスク、セキュアプロンプトなどの重要な概念を取り上げます。このページをブックマークして毎週フォローするか、 YouTubeチャンネルに登録してレッスンが公開されたらすぐに入手しましょう。
この入門編をさらに深く知りたい方は、SCWプラットフォームのAI/LLMコレクションをご覧いただくか、デモをリクエストしてください。YouTubeチャンネルをご登録いただくと、新しいエピソードが公開されるたびにご覧いただけます。また、最新のコンテンツ、アップデート、リソースをご希望の方は、こちらからオプトインして、開発者やセキュリティ・リーダーのコミュニティにご参加ください。
エピソード(毎週更新)
第1週 -AIコーディングのリスク:LLM を使用することの危険性
このビデオでは、コードを書く際に AI/LLM を使用することの潜在的な危険性を探り、AI を搭載したツールをワークフローに組み込む際に開発者が直面する主なリスクを明らかにします。
第2週 - AIコーディングの利点:Secure AI-Assisted Development
ȀAIコーディングツールは危険なだけではない - 安全に使用すれば、開発者の作業を迅速かつスマートにすることができる。このビデオでは、コードを書く際にAI/LLMを使用する利点を探求し、一般的なセキュリティの落とし穴を避けながら、チームが責任を持ってAIを活用する方法を紹介します。
第3週- プロンプト・インジェクションの説明:
プロンプト・インジェクションは、AI/LLMの最も一般的な脆弱性の1つであり、開発者なら誰でも予防法を知っているはずです。このビデオでは
第4週 -機密情報の開示:AIのデータ漏えいを避ける
AIを搭載したツールは、不注意で機密情報を漏えいさせ、アプリケーションやデータを危険にさらす可能性があります。このビデオでは、機密情報漏洩の脆弱性を取り上げ、AI/LLMを使用する際にそれらがどのように発生するかを説明し、開発者が暴露を減らすために取ることができる実践的なステップを共有します。
第5週AIサプライチェーンリスク:
AI支援開発はコーディングを加速させますが、同時にアプリケーションの各レイヤーに影響を与えうるサプライチェーンリスクをもたらします。このビデオでは、AI/LLMに関連する脆弱性を探り、サードパーティのモデルやAPIが攻撃対象領域をどのように拡大するかを説明し、暴露を最小限に抑えるための戦略を共有します。
Week 6 -Data Poisoning:AI モデルと出力の安全性を確保する
■AIシステムの安全性はその学習データによってのみ確保され、侵害された入力はアプリケーション全体に波及する脆弱性を生み出す可能性があります。このビデオでは、データポイズニング攻撃とモデルポイズニング攻撃を紹介し、悪意のある入力がどのようにAIの出力を操作するかを説明し、システムを保護するための戦略を共有します。
第7週- 不適切な出力処理:AI-Generated Code
ȀAIを搭載したツールはコードを高速に生成することができますが、出力が検証されていないと、脆弱性が気づかないうちに忍び込む可能性があります。このビデオでは、AI支援開発における不適切な出力処理を検証し、危険な出力がアプリケーションをどのように危険にさらすかを説明し、生成されたコードを保護するテクニックを共有します。
Week 8 - Excessive Agency:AI Autonomy Risks
︓AIシステムがより自律的に なるにつれ、過剰なエージェンシーは、モデルが意図した範囲を超えて行動する新たなリスクを生み出す。このビデオでは、AI支援開発における過剰なエージェンシーの脆弱性を探り、踏み越えた行動がどのように生じるかを説明し、AI主導のプロセスを制御し続けるための技法について議論する。
Week 9 - System Prompt Leakage: Hidden AI Security Risks
システムプロンプトには、AIの動作を誘導する隠された指示が含まれていることが多いが、これが暴露されると、攻撃者はモデルを操作したり、機密情報を引き出したりすることができる。このビデオでは、システムプロンプトの漏洩の脆弱性を取り上げ、それらがどのように発生するかを説明し、AIを利用したワークフローを保護するために開発者が取るべき手順について説明します。
第10週 ベクトルの弱点:
ȀAIモデルは強力な機能を提供するためにベクターデータベースとエンベッディングに依存することが多いが、誤った設定や安全でない実装は機密データを暴露し、新たな攻撃ベクトルを生み出す可能性がある。このビデオでは、ベクターとエンベッディングの弱点を掘り下げ、一般的なセキュリティ上の課題を説明し、AIを利用した検索ワークフローのセキュリティを確保するための戦略を共有します。
第11週 —AIによる誤情報:幻覚リスクの回避
AIツールは時に、一見正しく見えて実際には誤った出力を生成することがあります。これにより、セキュリティ、信頼性、意思決定に影響を与える誤情報リスクが生じます。本動画では、AI支援コーディングにおける誤情報脆弱性を解説し、誤った出力がどのように発生するかを探るとともに、AI駆動コンテンツを検証・保護するための戦略を共有します。
第12週 — 無制限な消費:AIのDoSリスク防止
AIシステムはリソースを無制限に消費する可能性があり、サービス拒否(DoS)攻撃、データ漏洩、予期せぬ運用障害などのリスクを招きます。本動画では、AI/大規模言語モデル(LLM)における無制限な消費の脆弱性について解説し、その発生メカニズムを説明するとともに、AIリソース使用状況を監視・管理・保護するための実践的な戦略を共有します。
これらの動画はAI/LLMセキュリティの核心概念を紹介するものです。Secure Code Warrior には、さらに多くの探求の余地があります。現実のAI支援型コードレビューと修正をシミュレートするAIチャレンジに挑み、業界のベストプラクティスに沿ったAI/LLMガイドラインを探求し、安全なコーディング習慣を構築する実践的体験を提供するウォークスルー、Missions、クエスト、コーステンプレートに取り組みましょう。 スキル向上を目指すチーム向けに、プラットフォームでは130以上を超えるAI/LLM特化型学習コンテンツを拡充中です。「AIを活用したコーディング」「AIリスク&セキュリティ入門」「LLMアプリケーション向けOWASP Top 10」などのトピックを網羅。詳細についてはデモをご請求ください。
目次
Shannon Holt est une spécialiste de la commercialisation de produits de cybersécurité avec une expérience dans les domaines de la sécurité des applications, des services de sécurité du cloud et des normes de conformité telles que PCI-DSS et HITRUST.

Secure Code Warrior ソフトウェア開発ライフサイクル全体を通じてコードのセキュリティを確保し、サイバーセキュリティを最優先事項とする文化を構築するために、組織をSecure Code Warrior 。アプリケーションセキュリティ担当者、開発者、情報セキュリティ責任者、その他セキュリティに関わるあらゆる方々のために、当社は組織が非セキュアなコードに関連するリスクを軽減するお手伝いをいたします。
デモを予約するダウンロード















%20(1).avif)
.avif)
