SCW アイコン
ヒーロー背景(区切りなし)
ブログ

AI/LLMセキュリティ・ビデオ・シリーズ全エピソード、毎週更新

シャノン・ホルト
2025年09月09日 掲載
最終更新日: 2026年2月13日

AI/LLMセキュリティ入門シリーズのご案内

GitHub CopilotやCursorなどのAIコーディングツールは、ソフトウェアの構築方法を再構築していますが、安全で信頼性の高いアプリケーションを構築するために開発者が理解しなければならない新たなセキュリティ上の課題ももたらしています。チームがAIを安全に導入できるよう、私たちはYouTubeで12週間の無料AI/LLMセキュリティ入門ビデオシリーズを作成しました。

この投稿は、このシリーズの中心的なハブとなります。毎週、新しいビデオと説明を更新し、プロンプトインジェクション、データとモデルポイズニング、サプライチェーンリスク、セキュアプロンプトなどの重要な概念を取り上げます。このページをブックマークして毎週フォローするか、 YouTubeチャンネルに登録してレッスンが公開されたらすぐに入手しましょう。

この入門編をさらに深く知りたい方は、SCWプラットフォームのAI/LLMコレクションをご覧いただくか、デモをリクエストしてください。YouTubeチャンネルをご登録いただくと、新しいエピソードが公開されるたびにご覧いただけます。また、最新のコンテンツ、アップデート、リソースをご希望の方は、こちらからオプトインして、開発者やセキュリティ・リーダーのコミュニティにご参加ください。

エピソード(毎週更新)

第1週 -AIコーディングのリスク:LLM を使用することの危険性
このビデオでは、コードを書く際に AI/LLM を使用することの潜在的な危険性を探り、AI を搭載したツールをワークフローに組み込む際に開発者が直面する主なリスクを明らかにします。


第2週 - AIコーディングの利点:Secure AI-Assisted Development
ȀAI
コーディングツールは危険なだけではない - 安全に使用すれば、開発者の作業を迅速かつスマートにすることができる。このビデオでは、コードを書く際にAI/LLMを使用する利点を探求し、一般的なセキュリティの落とし穴を避けながら、チームが責任を持ってAIを活用する方法を紹介します。


第3週- プロンプト・インジェクションの説明:
‍プロンプト・インジェクションは
、AI/LLMの最も一般的な脆弱性の1つであり、開発者なら誰でも予防法を知っているはずです。このビデオでは


第4週 -機密情報の開示:AIのデータ漏えいを避ける
AIを搭載したツールは、不注意で機密情報を漏えいさせ、アプリケーションやデータを危険にさらす可能性があります。このビデオでは、機密情報漏洩の脆弱性を取り上げ、AI/LLMを使用する際にそれらがどのように発生するかを説明し、開発者が暴露を減らすために取ることができる実践的なステップを共有します。

第5週AIサプライチェーンリスク:
‍AI支援
開発はコーディングを加速させますが、同時にアプリケーションの各レイヤーに影響を与えうるサプライチェーンリスクをもたらします。このビデオでは、AI/LLMに関連する脆弱性を探り、サードパーティのモデルやAPIが攻撃対象領域をどのように拡大するかを説明し、暴露を最小限に抑えるための戦略を共有します。


Week 6 -Data Poisoning:AI モデルと出力の安全性を確保する
■AI
システムの安全性はその学習データによってのみ確保され、侵害された入力はアプリケーション全体に波及する脆弱性を生み出す可能性があります。このビデオでは、データポイズニング攻撃とモデルポイズニング攻撃を紹介し、悪意のある入力がどのようにAIの出力を操作するかを説明し、システムを保護するための戦略を共有します。


第7週- 不適切な出力処理:AI-Generated Code
ȀAIを搭載した
ツールはコードを高速に生成することができますが、出力が検証されていないと、脆弱性が気づかないうちに忍び込む可能性があります。このビデオでは、AI支援開発における不適切な出力処理を検証し、危険な出力がアプリケーションをどのように危険にさらすかを説明し、生成されたコードを保護するテクニックを共有します。


Week 8 - Excessive Agency:AI Autonomy Risks
︓AI
システムがより自律的に なるにつれ、過剰なエージェンシーは、モデルが意図した範囲を超えて行動する新たなリスクを生み出す。このビデオでは、AI支援開発における過剰なエージェンシーの脆弱性を探り、踏み越えた行動がどのように生じるかを説明し、AI主導のプロセスを制御し続けるための技法について議論する。


Week 9 - System Prompt Leakage: Hidden AI Security Risks
‍システムプロンプトには
、AIの動作を誘導する隠された指示が含まれていることが多いが、これが暴露されると、攻撃者はモデルを操作したり、機密情報を引き出したりすることができる。このビデオでは、システムプロンプトの漏洩の脆弱性を取り上げ、それらがどのように発生するかを説明し、AIを利用したワークフローを保護するために開発者が取るべき手順について説明します。

第10週 ベクトルの弱点:
ȀAI
モデルは強力な機能を提供するためにベクターデータベースとエンベッディングに依存することが多いが、誤った設定や安全でない実装は機密データを暴露し、新たな攻撃ベクトルを生み出す可能性がある。このビデオでは、ベクターとエンベッディングの弱点を掘り下げ、一般的なセキュリティ上の課題を説明し、AIを利用した検索ワークフローのセキュリティを確保するための戦略を共有します。

第11週 —AIによる誤情報:幻覚リスクの回避
AIツールは
時に、一見正しく見えて実際には誤った出力を生成することがあります。これにより、セキュリティ、信頼性、意思決定に影響を与える誤情報リスクが生じます。本動画では、AI支援コーディングにおける誤情報脆弱性を解説し、誤った出力がどのように発生するかを探るとともに、AI駆動コンテンツを検証・保護するための戦略を共有します。



第12週 無制限な消費:AIのDoSリスク防止
AIシステムはリソースを無制限に消費する可能性があり、サービス拒否(DoS)攻撃、データ漏洩、予期せぬ運用障害などのリスクを招きます。本動画では、AI/大規模言語モデル(LLM)における無制限な消費の脆弱性について解説し、その発生メカニズムを説明するとともに、AIリソース使用状況を監視・管理・保護するための実践的な戦略を共有します。



これらの動画はAI/LLMセキュリティの核心概念を紹介するものです。Secure Code Warrior には、さらに多くの探求の余地があります。現実のAI支援型コードレビューと修正をシミュレートするAIチャレンジに挑み、業界のベストプラクティスに沿ったAI/LLMガイドラインを探求し、安全なコーディング習慣を構築する実践的体験を提供するウォークスルー、Missions、クエスト、コーステンプレートに取り組みましょう。 スキル向上を目指すチーム向けに、プラットフォームでは130以上を超えるAI/LLM特化型学習コンテンツを拡充中です。「AIを活用したコーディング」「AIリスク&セキュリティ入門」「LLMアプリケーション向けOWASP Top 10」などのトピックを網羅。詳細についてはデモをご請求ください。 

リソースを表示
リソースを表示

12週間にわたるAI/LLMセキュリティ・ビデオ・シリーズのオールインワン・ガイドです。すべてのエピソードをご覧いただき、AIセキュリティの重要な概念を学び、毎週フォローしてください。

もっと知りたいですか?

Shannon Holt ist eine Marketingfachfrau für Cybersicherheitsprodukte mit einem Hintergrund in den Bereichen Anwendungssicherheit, Cloud-Sicherheitsdienste und Compliance-Standards wie PCI-DSS und HITRUST.

もっと詳しく

Secure Code Warrior 、ソフトウェア開発サイクル全体を通じてコードの安全性を確保し、サイバーセキュリティを最優先とする文化を構築するため、貴社をSecure Code Warrior 。アプリセキュリティ管理者、開発者、CISO、あるいはセキュリティに関わるあらゆる立場の方々に対し、当社が貴社のビジネスにおける不安全なコードに関連するリスクの低減を支援します。

デモを予約する
共有する:
リンクトインのブランドソーシャルx ロゴ
著者
シャノン・ホルト
2025年09月09日掲載

Shannon Holt ist eine Marketingfachfrau für Cybersicherheitsprodukte mit einem Hintergrund in den Bereichen Anwendungssicherheit, Cloud-Sicherheitsdienste und Compliance-Standards wie PCI-DSS und HITRUST.

Shannon Holt ist eine Marketingfachfrau für Cybersicherheitsprodukte mit einem Hintergrund in den Bereichen Anwendungssicherheit, Cloud-Sicherheitsdienste und Compliance-Standards wie PCI-DSS und HITRUST. Ihre Leidenschaft ist es, sichere Entwicklung und Compliance für technische Teams praktischer und zugänglicher zu machen und so die Lücke zwischen Sicherheitserwartungen und den Realitäten der modernen Softwareentwicklung zu überbrücken.

共有する:
リンクトインのブランドソーシャルx ロゴ

AI/LLMセキュリティ入門シリーズのご案内

GitHub CopilotやCursorなどのAIコーディングツールは、ソフトウェアの構築方法を再構築していますが、安全で信頼性の高いアプリケーションを構築するために開発者が理解しなければならない新たなセキュリティ上の課題ももたらしています。チームがAIを安全に導入できるよう、私たちはYouTubeで12週間の無料AI/LLMセキュリティ入門ビデオシリーズを作成しました。

この投稿は、このシリーズの中心的なハブとなります。毎週、新しいビデオと説明を更新し、プロンプトインジェクション、データとモデルポイズニング、サプライチェーンリスク、セキュアプロンプトなどの重要な概念を取り上げます。このページをブックマークして毎週フォローするか、 YouTubeチャンネルに登録してレッスンが公開されたらすぐに入手しましょう。

この入門編をさらに深く知りたい方は、SCWプラットフォームのAI/LLMコレクションをご覧いただくか、デモをリクエストしてください。YouTubeチャンネルをご登録いただくと、新しいエピソードが公開されるたびにご覧いただけます。また、最新のコンテンツ、アップデート、リソースをご希望の方は、こちらからオプトインして、開発者やセキュリティ・リーダーのコミュニティにご参加ください。

エピソード(毎週更新)

第1週 -AIコーディングのリスク:LLM を使用することの危険性
このビデオでは、コードを書く際に AI/LLM を使用することの潜在的な危険性を探り、AI を搭載したツールをワークフローに組み込む際に開発者が直面する主なリスクを明らかにします。


第2週 - AIコーディングの利点:Secure AI-Assisted Development
ȀAI
コーディングツールは危険なだけではない - 安全に使用すれば、開発者の作業を迅速かつスマートにすることができる。このビデオでは、コードを書く際にAI/LLMを使用する利点を探求し、一般的なセキュリティの落とし穴を避けながら、チームが責任を持ってAIを活用する方法を紹介します。


第3週- プロンプト・インジェクションの説明:
‍プロンプト・インジェクションは
、AI/LLMの最も一般的な脆弱性の1つであり、開発者なら誰でも予防法を知っているはずです。このビデオでは


第4週 -機密情報の開示:AIのデータ漏えいを避ける
AIを搭載したツールは、不注意で機密情報を漏えいさせ、アプリケーションやデータを危険にさらす可能性があります。このビデオでは、機密情報漏洩の脆弱性を取り上げ、AI/LLMを使用する際にそれらがどのように発生するかを説明し、開発者が暴露を減らすために取ることができる実践的なステップを共有します。

第5週AIサプライチェーンリスク:
‍AI支援
開発はコーディングを加速させますが、同時にアプリケーションの各レイヤーに影響を与えうるサプライチェーンリスクをもたらします。このビデオでは、AI/LLMに関連する脆弱性を探り、サードパーティのモデルやAPIが攻撃対象領域をどのように拡大するかを説明し、暴露を最小限に抑えるための戦略を共有します。


Week 6 -Data Poisoning:AI モデルと出力の安全性を確保する
■AI
システムの安全性はその学習データによってのみ確保され、侵害された入力はアプリケーション全体に波及する脆弱性を生み出す可能性があります。このビデオでは、データポイズニング攻撃とモデルポイズニング攻撃を紹介し、悪意のある入力がどのようにAIの出力を操作するかを説明し、システムを保護するための戦略を共有します。


第7週- 不適切な出力処理:AI-Generated Code
ȀAIを搭載した
ツールはコードを高速に生成することができますが、出力が検証されていないと、脆弱性が気づかないうちに忍び込む可能性があります。このビデオでは、AI支援開発における不適切な出力処理を検証し、危険な出力がアプリケーションをどのように危険にさらすかを説明し、生成されたコードを保護するテクニックを共有します。


Week 8 - Excessive Agency:AI Autonomy Risks
︓AI
システムがより自律的に なるにつれ、過剰なエージェンシーは、モデルが意図した範囲を超えて行動する新たなリスクを生み出す。このビデオでは、AI支援開発における過剰なエージェンシーの脆弱性を探り、踏み越えた行動がどのように生じるかを説明し、AI主導のプロセスを制御し続けるための技法について議論する。


Week 9 - System Prompt Leakage: Hidden AI Security Risks
‍システムプロンプトには
、AIの動作を誘導する隠された指示が含まれていることが多いが、これが暴露されると、攻撃者はモデルを操作したり、機密情報を引き出したりすることができる。このビデオでは、システムプロンプトの漏洩の脆弱性を取り上げ、それらがどのように発生するかを説明し、AIを利用したワークフローを保護するために開発者が取るべき手順について説明します。

第10週 ベクトルの弱点:
ȀAI
モデルは強力な機能を提供するためにベクターデータベースとエンベッディングに依存することが多いが、誤った設定や安全でない実装は機密データを暴露し、新たな攻撃ベクトルを生み出す可能性がある。このビデオでは、ベクターとエンベッディングの弱点を掘り下げ、一般的なセキュリティ上の課題を説明し、AIを利用した検索ワークフローのセキュリティを確保するための戦略を共有します。

第11週 —AIによる誤情報:幻覚リスクの回避
AIツールは
時に、一見正しく見えて実際には誤った出力を生成することがあります。これにより、セキュリティ、信頼性、意思決定に影響を与える誤情報リスクが生じます。本動画では、AI支援コーディングにおける誤情報脆弱性を解説し、誤った出力がどのように発生するかを探るとともに、AI駆動コンテンツを検証・保護するための戦略を共有します。



第12週 無制限な消費:AIのDoSリスク防止
AIシステムはリソースを無制限に消費する可能性があり、サービス拒否(DoS)攻撃、データ漏洩、予期せぬ運用障害などのリスクを招きます。本動画では、AI/大規模言語モデル(LLM)における無制限な消費の脆弱性について解説し、その発生メカニズムを説明するとともに、AIリソース使用状況を監視・管理・保護するための実践的な戦略を共有します。



これらの動画はAI/LLMセキュリティの核心概念を紹介するものです。Secure Code Warrior には、さらに多くの探求の余地があります。現実のAI支援型コードレビューと修正をシミュレートするAIチャレンジに挑み、業界のベストプラクティスに沿ったAI/LLMガイドラインを探求し、安全なコーディング習慣を構築する実践的体験を提供するウォークスルー、Missions、クエスト、コーステンプレートに取り組みましょう。 スキル向上を目指すチーム向けに、プラットフォームでは130以上を超えるAI/LLM特化型学習コンテンツを拡充中です。「AIを活用したコーディング」「AIリスク&セキュリティ入門」「LLMアプリケーション向けOWASP Top 10」などのトピックを網羅。詳細についてはデモをご請求ください。 

リソースを表示
リソースを表示

以下のフォームに記入してレポートをダウンロードしてください

当社製品および/またはセキュアコーディングに関連する情報について、お客様にご案内させていただくことをお許しください。お客様の個人情報は常に細心の注意をもって取り扱い、マーケティング目的で他社に販売することは一切ありません。

提出
SCW成功アイコン
SCWエラーアイコン
フォームを送信するには、「アナリティクス」クッキーを有効にしてください。完了後、いつでも無効に戻せます。

AI/LLMセキュリティ入門シリーズのご案内

GitHub CopilotやCursorなどのAIコーディングツールは、ソフトウェアの構築方法を再構築していますが、安全で信頼性の高いアプリケーションを構築するために開発者が理解しなければならない新たなセキュリティ上の課題ももたらしています。チームがAIを安全に導入できるよう、私たちはYouTubeで12週間の無料AI/LLMセキュリティ入門ビデオシリーズを作成しました。

この投稿は、このシリーズの中心的なハブとなります。毎週、新しいビデオと説明を更新し、プロンプトインジェクション、データとモデルポイズニング、サプライチェーンリスク、セキュアプロンプトなどの重要な概念を取り上げます。このページをブックマークして毎週フォローするか、 YouTubeチャンネルに登録してレッスンが公開されたらすぐに入手しましょう。

この入門編をさらに深く知りたい方は、SCWプラットフォームのAI/LLMコレクションをご覧いただくか、デモをリクエストしてください。YouTubeチャンネルをご登録いただくと、新しいエピソードが公開されるたびにご覧いただけます。また、最新のコンテンツ、アップデート、リソースをご希望の方は、こちらからオプトインして、開発者やセキュリティ・リーダーのコミュニティにご参加ください。

エピソード(毎週更新)

第1週 -AIコーディングのリスク:LLM を使用することの危険性
このビデオでは、コードを書く際に AI/LLM を使用することの潜在的な危険性を探り、AI を搭載したツールをワークフローに組み込む際に開発者が直面する主なリスクを明らかにします。


第2週 - AIコーディングの利点:Secure AI-Assisted Development
ȀAI
コーディングツールは危険なだけではない - 安全に使用すれば、開発者の作業を迅速かつスマートにすることができる。このビデオでは、コードを書く際にAI/LLMを使用する利点を探求し、一般的なセキュリティの落とし穴を避けながら、チームが責任を持ってAIを活用する方法を紹介します。


第3週- プロンプト・インジェクションの説明:
‍プロンプト・インジェクションは
、AI/LLMの最も一般的な脆弱性の1つであり、開発者なら誰でも予防法を知っているはずです。このビデオでは


第4週 -機密情報の開示:AIのデータ漏えいを避ける
AIを搭載したツールは、不注意で機密情報を漏えいさせ、アプリケーションやデータを危険にさらす可能性があります。このビデオでは、機密情報漏洩の脆弱性を取り上げ、AI/LLMを使用する際にそれらがどのように発生するかを説明し、開発者が暴露を減らすために取ることができる実践的なステップを共有します。

第5週AIサプライチェーンリスク:
‍AI支援
開発はコーディングを加速させますが、同時にアプリケーションの各レイヤーに影響を与えうるサプライチェーンリスクをもたらします。このビデオでは、AI/LLMに関連する脆弱性を探り、サードパーティのモデルやAPIが攻撃対象領域をどのように拡大するかを説明し、暴露を最小限に抑えるための戦略を共有します。


Week 6 -Data Poisoning:AI モデルと出力の安全性を確保する
■AI
システムの安全性はその学習データによってのみ確保され、侵害された入力はアプリケーション全体に波及する脆弱性を生み出す可能性があります。このビデオでは、データポイズニング攻撃とモデルポイズニング攻撃を紹介し、悪意のある入力がどのようにAIの出力を操作するかを説明し、システムを保護するための戦略を共有します。


第7週- 不適切な出力処理:AI-Generated Code
ȀAIを搭載した
ツールはコードを高速に生成することができますが、出力が検証されていないと、脆弱性が気づかないうちに忍び込む可能性があります。このビデオでは、AI支援開発における不適切な出力処理を検証し、危険な出力がアプリケーションをどのように危険にさらすかを説明し、生成されたコードを保護するテクニックを共有します。


Week 8 - Excessive Agency:AI Autonomy Risks
︓AI
システムがより自律的に なるにつれ、過剰なエージェンシーは、モデルが意図した範囲を超えて行動する新たなリスクを生み出す。このビデオでは、AI支援開発における過剰なエージェンシーの脆弱性を探り、踏み越えた行動がどのように生じるかを説明し、AI主導のプロセスを制御し続けるための技法について議論する。


Week 9 - System Prompt Leakage: Hidden AI Security Risks
‍システムプロンプトには
、AIの動作を誘導する隠された指示が含まれていることが多いが、これが暴露されると、攻撃者はモデルを操作したり、機密情報を引き出したりすることができる。このビデオでは、システムプロンプトの漏洩の脆弱性を取り上げ、それらがどのように発生するかを説明し、AIを利用したワークフローを保護するために開発者が取るべき手順について説明します。

第10週 ベクトルの弱点:
ȀAI
モデルは強力な機能を提供するためにベクターデータベースとエンベッディングに依存することが多いが、誤った設定や安全でない実装は機密データを暴露し、新たな攻撃ベクトルを生み出す可能性がある。このビデオでは、ベクターとエンベッディングの弱点を掘り下げ、一般的なセキュリティ上の課題を説明し、AIを利用した検索ワークフローのセキュリティを確保するための戦略を共有します。

第11週 —AIによる誤情報:幻覚リスクの回避
AIツールは
時に、一見正しく見えて実際には誤った出力を生成することがあります。これにより、セキュリティ、信頼性、意思決定に影響を与える誤情報リスクが生じます。本動画では、AI支援コーディングにおける誤情報脆弱性を解説し、誤った出力がどのように発生するかを探るとともに、AI駆動コンテンツを検証・保護するための戦略を共有します。



第12週 無制限な消費:AIのDoSリスク防止
AIシステムはリソースを無制限に消費する可能性があり、サービス拒否(DoS)攻撃、データ漏洩、予期せぬ運用障害などのリスクを招きます。本動画では、AI/大規模言語モデル(LLM)における無制限な消費の脆弱性について解説し、その発生メカニズムを説明するとともに、AIリソース使用状況を監視・管理・保護するための実践的な戦略を共有します。



これらの動画はAI/LLMセキュリティの核心概念を紹介するものです。Secure Code Warrior には、さらに多くの探求の余地があります。現実のAI支援型コードレビューと修正をシミュレートするAIチャレンジに挑み、業界のベストプラクティスに沿ったAI/LLMガイドラインを探求し、安全なコーディング習慣を構築する実践的体験を提供するウォークスルー、Missions、クエスト、コーステンプレートに取り組みましょう。 スキル向上を目指すチーム向けに、プラットフォームでは130以上を超えるAI/LLM特化型学習コンテンツを拡充中です。「AIを活用したコーディング」「AIリスク&セキュリティ入門」「LLMアプリケーション向けOWASP Top 10」などのトピックを網羅。詳細についてはデモをご請求ください。 

ウェビナーを見る
始めましょう
もっと詳しく

以下のリンクをクリックして、このリソースのPDFをダウンロードしてください。

Secure Code Warrior 、ソフトウェア開発サイクル全体を通じてコードの安全性を確保し、サイバーセキュリティを最優先とする文化を構築するため、貴社をSecure Code Warrior 。アプリセキュリティ管理者、開発者、CISO、あるいはセキュリティに関わるあらゆる立場の方々に対し、当社が貴社のビジネスにおける不安全なコードに関連するリスクの低減を支援します。

レポートを見るデモを予約する
PDFをダウンロード
リソースを表示
共有する:
リンクトインのブランドソーシャルx ロゴ
もっと知りたいですか?

共有する:
リンクトインのブランドソーシャルx ロゴ
著者
シャノン・ホルト
2025年09月09日掲載

Shannon Holt ist eine Marketingfachfrau für Cybersicherheitsprodukte mit einem Hintergrund in den Bereichen Anwendungssicherheit, Cloud-Sicherheitsdienste und Compliance-Standards wie PCI-DSS und HITRUST.

Shannon Holt ist eine Marketingfachfrau für Cybersicherheitsprodukte mit einem Hintergrund in den Bereichen Anwendungssicherheit, Cloud-Sicherheitsdienste und Compliance-Standards wie PCI-DSS und HITRUST. Ihre Leidenschaft ist es, sichere Entwicklung und Compliance für technische Teams praktischer und zugänglicher zu machen und so die Lücke zwischen Sicherheitserwartungen und den Realitäten der modernen Softwareentwicklung zu überbrücken.

共有する:
リンクトインのブランドソーシャルx ロゴ

AI/LLMセキュリティ入門シリーズのご案内

GitHub CopilotやCursorなどのAIコーディングツールは、ソフトウェアの構築方法を再構築していますが、安全で信頼性の高いアプリケーションを構築するために開発者が理解しなければならない新たなセキュリティ上の課題ももたらしています。チームがAIを安全に導入できるよう、私たちはYouTubeで12週間の無料AI/LLMセキュリティ入門ビデオシリーズを作成しました。

この投稿は、このシリーズの中心的なハブとなります。毎週、新しいビデオと説明を更新し、プロンプトインジェクション、データとモデルポイズニング、サプライチェーンリスク、セキュアプロンプトなどの重要な概念を取り上げます。このページをブックマークして毎週フォローするか、 YouTubeチャンネルに登録してレッスンが公開されたらすぐに入手しましょう。

この入門編をさらに深く知りたい方は、SCWプラットフォームのAI/LLMコレクションをご覧いただくか、デモをリクエストしてください。YouTubeチャンネルをご登録いただくと、新しいエピソードが公開されるたびにご覧いただけます。また、最新のコンテンツ、アップデート、リソースをご希望の方は、こちらからオプトインして、開発者やセキュリティ・リーダーのコミュニティにご参加ください。

エピソード(毎週更新)

第1週 -AIコーディングのリスク:LLM を使用することの危険性
このビデオでは、コードを書く際に AI/LLM を使用することの潜在的な危険性を探り、AI を搭載したツールをワークフローに組み込む際に開発者が直面する主なリスクを明らかにします。


第2週 - AIコーディングの利点:Secure AI-Assisted Development
ȀAI
コーディングツールは危険なだけではない - 安全に使用すれば、開発者の作業を迅速かつスマートにすることができる。このビデオでは、コードを書く際にAI/LLMを使用する利点を探求し、一般的なセキュリティの落とし穴を避けながら、チームが責任を持ってAIを活用する方法を紹介します。


第3週- プロンプト・インジェクションの説明:
‍プロンプト・インジェクションは
、AI/LLMの最も一般的な脆弱性の1つであり、開発者なら誰でも予防法を知っているはずです。このビデオでは


第4週 -機密情報の開示:AIのデータ漏えいを避ける
AIを搭載したツールは、不注意で機密情報を漏えいさせ、アプリケーションやデータを危険にさらす可能性があります。このビデオでは、機密情報漏洩の脆弱性を取り上げ、AI/LLMを使用する際にそれらがどのように発生するかを説明し、開発者が暴露を減らすために取ることができる実践的なステップを共有します。

第5週AIサプライチェーンリスク:
‍AI支援
開発はコーディングを加速させますが、同時にアプリケーションの各レイヤーに影響を与えうるサプライチェーンリスクをもたらします。このビデオでは、AI/LLMに関連する脆弱性を探り、サードパーティのモデルやAPIが攻撃対象領域をどのように拡大するかを説明し、暴露を最小限に抑えるための戦略を共有します。


Week 6 -Data Poisoning:AI モデルと出力の安全性を確保する
■AI
システムの安全性はその学習データによってのみ確保され、侵害された入力はアプリケーション全体に波及する脆弱性を生み出す可能性があります。このビデオでは、データポイズニング攻撃とモデルポイズニング攻撃を紹介し、悪意のある入力がどのようにAIの出力を操作するかを説明し、システムを保護するための戦略を共有します。


第7週- 不適切な出力処理:AI-Generated Code
ȀAIを搭載した
ツールはコードを高速に生成することができますが、出力が検証されていないと、脆弱性が気づかないうちに忍び込む可能性があります。このビデオでは、AI支援開発における不適切な出力処理を検証し、危険な出力がアプリケーションをどのように危険にさらすかを説明し、生成されたコードを保護するテクニックを共有します。


Week 8 - Excessive Agency:AI Autonomy Risks
︓AI
システムがより自律的に なるにつれ、過剰なエージェンシーは、モデルが意図した範囲を超えて行動する新たなリスクを生み出す。このビデオでは、AI支援開発における過剰なエージェンシーの脆弱性を探り、踏み越えた行動がどのように生じるかを説明し、AI主導のプロセスを制御し続けるための技法について議論する。


Week 9 - System Prompt Leakage: Hidden AI Security Risks
‍システムプロンプトには
、AIの動作を誘導する隠された指示が含まれていることが多いが、これが暴露されると、攻撃者はモデルを操作したり、機密情報を引き出したりすることができる。このビデオでは、システムプロンプトの漏洩の脆弱性を取り上げ、それらがどのように発生するかを説明し、AIを利用したワークフローを保護するために開発者が取るべき手順について説明します。

第10週 ベクトルの弱点:
ȀAI
モデルは強力な機能を提供するためにベクターデータベースとエンベッディングに依存することが多いが、誤った設定や安全でない実装は機密データを暴露し、新たな攻撃ベクトルを生み出す可能性がある。このビデオでは、ベクターとエンベッディングの弱点を掘り下げ、一般的なセキュリティ上の課題を説明し、AIを利用した検索ワークフローのセキュリティを確保するための戦略を共有します。

第11週 —AIによる誤情報:幻覚リスクの回避
AIツールは
時に、一見正しく見えて実際には誤った出力を生成することがあります。これにより、セキュリティ、信頼性、意思決定に影響を与える誤情報リスクが生じます。本動画では、AI支援コーディングにおける誤情報脆弱性を解説し、誤った出力がどのように発生するかを探るとともに、AI駆動コンテンツを検証・保護するための戦略を共有します。



第12週 無制限な消費:AIのDoSリスク防止
AIシステムはリソースを無制限に消費する可能性があり、サービス拒否(DoS)攻撃、データ漏洩、予期せぬ運用障害などのリスクを招きます。本動画では、AI/大規模言語モデル(LLM)における無制限な消費の脆弱性について解説し、その発生メカニズムを説明するとともに、AIリソース使用状況を監視・管理・保護するための実践的な戦略を共有します。



これらの動画はAI/LLMセキュリティの核心概念を紹介するものです。Secure Code Warrior には、さらに多くの探求の余地があります。現実のAI支援型コードレビューと修正をシミュレートするAIチャレンジに挑み、業界のベストプラクティスに沿ったAI/LLMガイドラインを探求し、安全なコーディング習慣を構築する実践的体験を提供するウォークスルー、Missions、クエスト、コーステンプレートに取り組みましょう。 スキル向上を目指すチーム向けに、プラットフォームでは130以上を超えるAI/LLM特化型学習コンテンツを拡充中です。「AIを活用したコーディング」「AIリスク&セキュリティ入門」「LLMアプリケーション向けOWASP Top 10」などのトピックを網羅。詳細についてはデモをご請求ください。 

目次

PDFをダウンロード
リソースを表示
もっと知りたいですか?

Shannon Holt ist eine Marketingfachfrau für Cybersicherheitsprodukte mit einem Hintergrund in den Bereichen Anwendungssicherheit, Cloud-Sicherheitsdienste und Compliance-Standards wie PCI-DSS und HITRUST.

もっと詳しく

Secure Code Warrior 、ソフトウェア開発サイクル全体を通じてコードの安全性を確保し、サイバーセキュリティを最優先とする文化を構築するため、貴社をSecure Code Warrior 。アプリセキュリティ管理者、開発者、CISO、あるいはセキュリティに関わるあらゆる立場の方々に対し、当社が貴社のビジネスにおける不安全なコードに関連するリスクの低減を支援します。

デモを予約するダウンロード
共有する:
リンクトインのブランドソーシャルx ロゴ
リソースハブ

入門リソース

さらに多くの投稿
リソースハブ

入門リソース

さらに多くの投稿