AI/LLMセキュリティ・ビデオ・シリーズ全エピソード、毎週更新
AI/LLMセキュリティ入門シリーズのご案内
GitHub CopilotやCursorなどのAIコーディングツールは、ソフトウェアの構築方法を再構築していますが、安全で信頼性の高いアプリケーションを構築するために開発者が理解しなければならない新たなセキュリティ上の課題ももたらしています。チームがAIを安全に導入できるよう、私たちはYouTubeで12週間の無料AI/LLMセキュリティ入門ビデオシリーズを作成しました。
この投稿は、このシリーズの中心的なハブとなります。毎週、新しいビデオと説明を更新し、プロンプトインジェクション、データとモデルポイズニング、サプライチェーンリスク、セキュアプロンプトなどの重要な概念を取り上げます。このページをブックマークして毎週フォローするか、 YouTubeチャンネルに登録してレッスンが公開されたらすぐに入手しましょう。
この入門編をさらに深く知りたい方は、SCWプラットフォームのAI/LLMコレクションをご覧いただくか、デモをリクエストしてください。YouTubeチャンネルをご登録いただくと、新しいエピソードが公開されるたびにご覧いただけます。また、最新のコンテンツ、アップデート、リソースをご希望の方は、こちらからオプトインして、開発者やセキュリティ・リーダーのコミュニティにご参加ください。
エピソード(毎週更新)
第1週 -AIコーディングのリスク:LLM を使用することの危険性
このビデオでは、コードを書く際に AI/LLM を使用することの潜在的な危険性を探り、AI を搭載したツールをワークフローに組み込む際に開発者が直面する主なリスクを明らかにします。
第2週 - AIコーディングの利点:Secure AI-Assisted Development
ȀAIコーディングツールは危険なだけではない - 安全に使用すれば、開発者の作業を迅速かつスマートにすることができる。このビデオでは、コードを書く際にAI/LLMを使用する利点を探求し、一般的なセキュリティの落とし穴を避けながら、チームが責任を持ってAIを活用する方法を紹介します。
第3週 - プロンプト・インジェクションの説明:AIが生成したコードを守るプロンプト・インジェクションは、最も一般的なAI/LLMの脆弱性の一つであり、開発者なら誰でも防ぐ方法を知っているはずです。このビデオでは
第4週 -機密情報の開示:AIのデータ漏えいを避ける
AIを搭載したツールは、不注意で機密情報を漏えいさせ、アプリケーションやデータを危険にさらす可能性があります。このビデオでは、機密情報漏洩の脆弱性を取り上げ、AI/LLMを使用する際にそれらがどのように発生するかを説明し、開発者が暴露を減らすために取ることができる実践的なステップを共有します。
第5週「AIのサプライチェーンリスク:AIによる開発支援はコーディングを加速させますが、同時にアプリケーションの各レイヤーに影響を与えるサプライチェーンリスクをもたらします。このビデオでは、AI/LLMに関連する脆弱性を探り、サードパーティのモデルやAPIが攻撃対象領域をどのように拡大するかを説明し、暴露を最小限に抑えるための戦略を共有します。
Week 6 - Data Poisoning:AIのモデルと出力の安全性AIシステムの安全性は、その学習データと同じであり、危殆化した入力は、アプリケーション全体に波及する脆弱性を生み出す可能性があります。このビデオでは、データポイズニング攻撃とモデルポイズニング攻撃を紹介し、悪意のある入力がどのようにAIの出力を操作するかを説明し、システムを保護するための戦略を共有します。
第7週「不適切な出力処理:AI-Generated Code
ȀAIを搭載したツールはコードを高速に生成することができますが、出力が検証されていないと、脆弱性が気づかないうちに忍び込む可能性があります。このビデオでは、AI支援開発における不適切な出力処理を検証し、危険な出力がアプリケーションをどのように危険にさらすかを説明し、生成されたコードを保護するテクニックを共有します。
これらのビデオは、AI/LLMセキュリティの中核となる概念を紹介するためのものですが、Secure Code Warrior プラットフォーム内には、さらに多くの探索があります。実際のAIによるコードレビューと修正をシミュレートするAIチャレンジ、業界のベストプラクティスに沿ったAI/LLMガイドライン、セキュアなコーディング習慣を構築するための実践的な経験を提供するウォークスルー、Missions、クエスト、コーステンプレートに取り組んでください。また、スキルアップを目指すチームには、AIを使ったコーディング、AIリスクとセキュリティ入門、LLMアプリケーションのためのOWASPトップ10などのトピックを含む、AI/LLMに焦点を当てた130以上の学習アクティビティライブラリが用意されています。 詳細については、デモをリクエストしてください。


12週間にわたるAI/LLMセキュリティ・ビデオ・シリーズのオールインワン・ガイドです。すべてのエピソードをご覧いただき、AIセキュリティの重要な概念を学び、毎週フォローしてください。
Shannon Holt は、アプリケーション セキュリティ、クラウド セキュリティ サービス、PCI-DSS や HITRUST などのコンプライアンス標準に関する経験を持つサイバー セキュリティ製品のマーケティング担当者です。

Secure Code Warrior は、ソフトウェア開発ライフサイクル全体にわたってコードを保護し、サイバーセキュリティを最優先とする企業文化を創造するために、お客様の組織を支援します。AppSec マネージャー、開発者、CISO、またはセキュリティに関わるすべての人が、安全でないコードに関連するリスクを減らすことができるよう、支援します。
デモを予約するShannon Holt は、アプリケーション セキュリティ、クラウド セキュリティ サービス、PCI-DSS や HITRUST などのコンプライアンス標準に関する経験を持つサイバー セキュリティ製品のマーケティング担当者です。
シャノン・ホルトは、アプリケーションセキュリティ、クラウドセキュリティサービス、そしてPCI-DSSやHITRUSTといったコンプライアンス標準に精通したサイバーセキュリティ製品マーケターです。彼女は、セキュリティに対する期待と現代のソフトウェア開発の現実とのギャップを埋め、技術チームにとって安全な開発とコンプライアンスをより実践的で身近なものにすることに情熱を注いでいます。


AI/LLMセキュリティ入門シリーズのご案内
GitHub CopilotやCursorなどのAIコーディングツールは、ソフトウェアの構築方法を再構築していますが、安全で信頼性の高いアプリケーションを構築するために開発者が理解しなければならない新たなセキュリティ上の課題ももたらしています。チームがAIを安全に導入できるよう、私たちはYouTubeで12週間の無料AI/LLMセキュリティ入門ビデオシリーズを作成しました。
この投稿は、このシリーズの中心的なハブとなります。毎週、新しいビデオと説明を更新し、プロンプトインジェクション、データとモデルポイズニング、サプライチェーンリスク、セキュアプロンプトなどの重要な概念を取り上げます。このページをブックマークして毎週フォローするか、 YouTubeチャンネルに登録してレッスンが公開されたらすぐに入手しましょう。
この入門編をさらに深く知りたい方は、SCWプラットフォームのAI/LLMコレクションをご覧いただくか、デモをリクエストしてください。YouTubeチャンネルをご登録いただくと、新しいエピソードが公開されるたびにご覧いただけます。また、最新のコンテンツ、アップデート、リソースをご希望の方は、こちらからオプトインして、開発者やセキュリティ・リーダーのコミュニティにご参加ください。
エピソード(毎週更新)
第1週 -AIコーディングのリスク:LLM を使用することの危険性
このビデオでは、コードを書く際に AI/LLM を使用することの潜在的な危険性を探り、AI を搭載したツールをワークフローに組み込む際に開発者が直面する主なリスクを明らかにします。
第2週 - AIコーディングの利点:Secure AI-Assisted Development
ȀAIコーディングツールは危険なだけではない - 安全に使用すれば、開発者の作業を迅速かつスマートにすることができる。このビデオでは、コードを書く際にAI/LLMを使用する利点を探求し、一般的なセキュリティの落とし穴を避けながら、チームが責任を持ってAIを活用する方法を紹介します。
第3週 - プロンプト・インジェクションの説明:AIが生成したコードを守るプロンプト・インジェクションは、最も一般的なAI/LLMの脆弱性の一つであり、開発者なら誰でも防ぐ方法を知っているはずです。このビデオでは
第4週 -機密情報の開示:AIのデータ漏えいを避ける
AIを搭載したツールは、不注意で機密情報を漏えいさせ、アプリケーションやデータを危険にさらす可能性があります。このビデオでは、機密情報漏洩の脆弱性を取り上げ、AI/LLMを使用する際にそれらがどのように発生するかを説明し、開発者が暴露を減らすために取ることができる実践的なステップを共有します。
第5週「AIのサプライチェーンリスク:AIによる開発支援はコーディングを加速させますが、同時にアプリケーションの各レイヤーに影響を与えるサプライチェーンリスクをもたらします。このビデオでは、AI/LLMに関連する脆弱性を探り、サードパーティのモデルやAPIが攻撃対象領域をどのように拡大するかを説明し、暴露を最小限に抑えるための戦略を共有します。
Week 6 - Data Poisoning:AIのモデルと出力の安全性AIシステムの安全性は、その学習データと同じであり、危殆化した入力は、アプリケーション全体に波及する脆弱性を生み出す可能性があります。このビデオでは、データポイズニング攻撃とモデルポイズニング攻撃を紹介し、悪意のある入力がどのようにAIの出力を操作するかを説明し、システムを保護するための戦略を共有します。
第7週「不適切な出力処理:AI-Generated Code
ȀAIを搭載したツールはコードを高速に生成することができますが、出力が検証されていないと、脆弱性が気づかないうちに忍び込む可能性があります。このビデオでは、AI支援開発における不適切な出力処理を検証し、危険な出力がアプリケーションをどのように危険にさらすかを説明し、生成されたコードを保護するテクニックを共有します。
これらのビデオは、AI/LLMセキュリティの中核となる概念を紹介するためのものですが、Secure Code Warrior プラットフォーム内には、さらに多くの探索があります。実際のAIによるコードレビューと修正をシミュレートするAIチャレンジ、業界のベストプラクティスに沿ったAI/LLMガイドライン、セキュアなコーディング習慣を構築するための実践的な経験を提供するウォークスルー、Missions、クエスト、コーステンプレートに取り組んでください。また、スキルアップを目指すチームには、AIを使ったコーディング、AIリスクとセキュリティ入門、LLMアプリケーションのためのOWASPトップ10などのトピックを含む、AI/LLMに焦点を当てた130以上の学習アクティビティライブラリが用意されています。 詳細については、デモをリクエストしてください。

AI/LLMセキュリティ入門シリーズのご案内
GitHub CopilotやCursorなどのAIコーディングツールは、ソフトウェアの構築方法を再構築していますが、安全で信頼性の高いアプリケーションを構築するために開発者が理解しなければならない新たなセキュリティ上の課題ももたらしています。チームがAIを安全に導入できるよう、私たちはYouTubeで12週間の無料AI/LLMセキュリティ入門ビデオシリーズを作成しました。
この投稿は、このシリーズの中心的なハブとなります。毎週、新しいビデオと説明を更新し、プロンプトインジェクション、データとモデルポイズニング、サプライチェーンリスク、セキュアプロンプトなどの重要な概念を取り上げます。このページをブックマークして毎週フォローするか、 YouTubeチャンネルに登録してレッスンが公開されたらすぐに入手しましょう。
この入門編をさらに深く知りたい方は、SCWプラットフォームのAI/LLMコレクションをご覧いただくか、デモをリクエストしてください。YouTubeチャンネルをご登録いただくと、新しいエピソードが公開されるたびにご覧いただけます。また、最新のコンテンツ、アップデート、リソースをご希望の方は、こちらからオプトインして、開発者やセキュリティ・リーダーのコミュニティにご参加ください。
エピソード(毎週更新)
第1週 -AIコーディングのリスク:LLM を使用することの危険性
このビデオでは、コードを書く際に AI/LLM を使用することの潜在的な危険性を探り、AI を搭載したツールをワークフローに組み込む際に開発者が直面する主なリスクを明らかにします。
第2週 - AIコーディングの利点:Secure AI-Assisted Development
ȀAIコーディングツールは危険なだけではない - 安全に使用すれば、開発者の作業を迅速かつスマートにすることができる。このビデオでは、コードを書く際にAI/LLMを使用する利点を探求し、一般的なセキュリティの落とし穴を避けながら、チームが責任を持ってAIを活用する方法を紹介します。
第3週 - プロンプト・インジェクションの説明:AIが生成したコードを守るプロンプト・インジェクションは、最も一般的なAI/LLMの脆弱性の一つであり、開発者なら誰でも防ぐ方法を知っているはずです。このビデオでは
第4週 -機密情報の開示:AIのデータ漏えいを避ける
AIを搭載したツールは、不注意で機密情報を漏えいさせ、アプリケーションやデータを危険にさらす可能性があります。このビデオでは、機密情報漏洩の脆弱性を取り上げ、AI/LLMを使用する際にそれらがどのように発生するかを説明し、開発者が暴露を減らすために取ることができる実践的なステップを共有します。
第5週「AIのサプライチェーンリスク:AIによる開発支援はコーディングを加速させますが、同時にアプリケーションの各レイヤーに影響を与えるサプライチェーンリスクをもたらします。このビデオでは、AI/LLMに関連する脆弱性を探り、サードパーティのモデルやAPIが攻撃対象領域をどのように拡大するかを説明し、暴露を最小限に抑えるための戦略を共有します。
Week 6 - Data Poisoning:AIのモデルと出力の安全性AIシステムの安全性は、その学習データと同じであり、危殆化した入力は、アプリケーション全体に波及する脆弱性を生み出す可能性があります。このビデオでは、データポイズニング攻撃とモデルポイズニング攻撃を紹介し、悪意のある入力がどのようにAIの出力を操作するかを説明し、システムを保護するための戦略を共有します。
第7週「不適切な出力処理:AI-Generated Code
ȀAIを搭載したツールはコードを高速に生成することができますが、出力が検証されていないと、脆弱性が気づかないうちに忍び込む可能性があります。このビデオでは、AI支援開発における不適切な出力処理を検証し、危険な出力がアプリケーションをどのように危険にさらすかを説明し、生成されたコードを保護するテクニックを共有します。
これらのビデオは、AI/LLMセキュリティの中核となる概念を紹介するためのものですが、Secure Code Warrior プラットフォーム内には、さらに多くの探索があります。実際のAIによるコードレビューと修正をシミュレートするAIチャレンジ、業界のベストプラクティスに沿ったAI/LLMガイドライン、セキュアなコーディング習慣を構築するための実践的な経験を提供するウォークスルー、Missions、クエスト、コーステンプレートに取り組んでください。また、スキルアップを目指すチームには、AIを使ったコーディング、AIリスクとセキュリティ入門、LLMアプリケーションのためのOWASPトップ10などのトピックを含む、AI/LLMに焦点を当てた130以上の学習アクティビティライブラリが用意されています。 詳細については、デモをリクエストしてください。

以下のリンクをクリックし、この資料のPDFをダウンロードしてください。
Secure Code Warrior は、ソフトウェア開発ライフサイクル全体にわたってコードを保護し、サイバーセキュリティを最優先とする企業文化を創造するために、お客様の組織を支援します。AppSec マネージャー、開発者、CISO、またはセキュリティに関わるすべての人が、安全でないコードに関連するリスクを減らすことができるよう、支援します。
レポートを見るデモを予約するShannon Holt は、アプリケーション セキュリティ、クラウド セキュリティ サービス、PCI-DSS や HITRUST などのコンプライアンス標準に関する経験を持つサイバー セキュリティ製品のマーケティング担当者です。
シャノン・ホルトは、アプリケーションセキュリティ、クラウドセキュリティサービス、そしてPCI-DSSやHITRUSTといったコンプライアンス標準に精通したサイバーセキュリティ製品マーケターです。彼女は、セキュリティに対する期待と現代のソフトウェア開発の現実とのギャップを埋め、技術チームにとって安全な開発とコンプライアンスをより実践的で身近なものにすることに情熱を注いでいます。
AI/LLMセキュリティ入門シリーズのご案内
GitHub CopilotやCursorなどのAIコーディングツールは、ソフトウェアの構築方法を再構築していますが、安全で信頼性の高いアプリケーションを構築するために開発者が理解しなければならない新たなセキュリティ上の課題ももたらしています。チームがAIを安全に導入できるよう、私たちはYouTubeで12週間の無料AI/LLMセキュリティ入門ビデオシリーズを作成しました。
この投稿は、このシリーズの中心的なハブとなります。毎週、新しいビデオと説明を更新し、プロンプトインジェクション、データとモデルポイズニング、サプライチェーンリスク、セキュアプロンプトなどの重要な概念を取り上げます。このページをブックマークして毎週フォローするか、 YouTubeチャンネルに登録してレッスンが公開されたらすぐに入手しましょう。
この入門編をさらに深く知りたい方は、SCWプラットフォームのAI/LLMコレクションをご覧いただくか、デモをリクエストしてください。YouTubeチャンネルをご登録いただくと、新しいエピソードが公開されるたびにご覧いただけます。また、最新のコンテンツ、アップデート、リソースをご希望の方は、こちらからオプトインして、開発者やセキュリティ・リーダーのコミュニティにご参加ください。
エピソード(毎週更新)
第1週 -AIコーディングのリスク:LLM を使用することの危険性
このビデオでは、コードを書く際に AI/LLM を使用することの潜在的な危険性を探り、AI を搭載したツールをワークフローに組み込む際に開発者が直面する主なリスクを明らかにします。
第2週 - AIコーディングの利点:Secure AI-Assisted Development
ȀAIコーディングツールは危険なだけではない - 安全に使用すれば、開発者の作業を迅速かつスマートにすることができる。このビデオでは、コードを書く際にAI/LLMを使用する利点を探求し、一般的なセキュリティの落とし穴を避けながら、チームが責任を持ってAIを活用する方法を紹介します。
第3週 - プロンプト・インジェクションの説明:AIが生成したコードを守るプロンプト・インジェクションは、最も一般的なAI/LLMの脆弱性の一つであり、開発者なら誰でも防ぐ方法を知っているはずです。このビデオでは
第4週 -機密情報の開示:AIのデータ漏えいを避ける
AIを搭載したツールは、不注意で機密情報を漏えいさせ、アプリケーションやデータを危険にさらす可能性があります。このビデオでは、機密情報漏洩の脆弱性を取り上げ、AI/LLMを使用する際にそれらがどのように発生するかを説明し、開発者が暴露を減らすために取ることができる実践的なステップを共有します。
第5週「AIのサプライチェーンリスク:AIによる開発支援はコーディングを加速させますが、同時にアプリケーションの各レイヤーに影響を与えるサプライチェーンリスクをもたらします。このビデオでは、AI/LLMに関連する脆弱性を探り、サードパーティのモデルやAPIが攻撃対象領域をどのように拡大するかを説明し、暴露を最小限に抑えるための戦略を共有します。
Week 6 - Data Poisoning:AIのモデルと出力の安全性AIシステムの安全性は、その学習データと同じであり、危殆化した入力は、アプリケーション全体に波及する脆弱性を生み出す可能性があります。このビデオでは、データポイズニング攻撃とモデルポイズニング攻撃を紹介し、悪意のある入力がどのようにAIの出力を操作するかを説明し、システムを保護するための戦略を共有します。
第7週「不適切な出力処理:AI-Generated Code
ȀAIを搭載したツールはコードを高速に生成することができますが、出力が検証されていないと、脆弱性が気づかないうちに忍び込む可能性があります。このビデオでは、AI支援開発における不適切な出力処理を検証し、危険な出力がアプリケーションをどのように危険にさらすかを説明し、生成されたコードを保護するテクニックを共有します。
これらのビデオは、AI/LLMセキュリティの中核となる概念を紹介するためのものですが、Secure Code Warrior プラットフォーム内には、さらに多くの探索があります。実際のAIによるコードレビューと修正をシミュレートするAIチャレンジ、業界のベストプラクティスに沿ったAI/LLMガイドライン、セキュアなコーディング習慣を構築するための実践的な経験を提供するウォークスルー、Missions、クエスト、コーステンプレートに取り組んでください。また、スキルアップを目指すチームには、AIを使ったコーディング、AIリスクとセキュリティ入門、LLMアプリケーションのためのOWASPトップ10などのトピックを含む、AI/LLMに焦点を当てた130以上の学習アクティビティライブラリが用意されています。 詳細については、デモをリクエストしてください。
目次
Shannon Holt は、アプリケーション セキュリティ、クラウド セキュリティ サービス、PCI-DSS や HITRUST などのコンプライアンス標準に関する経験を持つサイバー セキュリティ製品のマーケティング担当者です。

Secure Code Warrior は、ソフトウェア開発ライフサイクル全体にわたってコードを保護し、サイバーセキュリティを最優先とする企業文化を創造するために、お客様の組織を支援します。AppSec マネージャー、開発者、CISO、またはセキュリティに関わるすべての人が、安全でないコードに関連するリスクを減らすことができるよう、支援します。
デモを予約するダウンロード









.png)
.avif)


