AI/LLMセキュリティ・ビデオ・シリーズ全エピソード、毎週更新
AI/LLMセキュリティ入門シリーズのご案内
GitHub CopilotやCursorなどのAIコーディングツールは、ソフトウェアの構築方法を再構築していますが、安全で信頼性の高いアプリケーションを構築するために開発者が理解しなければならない新たなセキュリティ上の課題ももたらしています。チームがAIを安全に導入できるよう、私たちはYouTubeで12週間の無料AI/LLMセキュリティ入門ビデオシリーズを作成しました。
この投稿は、このシリーズの中心的なハブとなります。毎週、新しいビデオと説明を更新し、プロンプトインジェクション、データとモデルポイズニング、サプライチェーンリスク、セキュアプロンプトなどの重要な概念を取り上げます。このページをブックマークして毎週フォローするか、 YouTubeチャンネルに登録してレッスンが公開されたらすぐに入手しましょう。
この入門編をさらに深く知りたい方は、SCWプラットフォームのAI/LLMコレクションをご覧いただくか、デモをリクエストしてください。YouTubeチャンネルをご登録いただくと、新しいエピソードが公開されるたびにご覧いただけます。また、最新のコンテンツ、アップデート、リソースをご希望の方は、こちらからオプトインして、開発者やセキュリティ・リーダーのコミュニティにご参加ください。
エピソード(毎週更新)
第1週 -AIコーディングのリスク:LLM を使用することの危険性
このビデオでは、コードを書く際に AI/LLM を使用することの潜在的な危険性を探り、AI を搭載したツールをワークフローに組み込む際に開発者が直面する主なリスクを明らかにします。
第2週 - AIコーディングの利点:Secure AI-Assisted Development
ȀAIコーディングツールは危険なだけではない - 安全に使用すれば、開発者の作業を迅速かつスマートにすることができる。このビデオでは、コードを書く際にAI/LLMを使用する利点を探求し、一般的なセキュリティの落とし穴を避けながら、チームが責任を持ってAIを活用する方法を紹介します。
第3週- プロンプト・インジェクションの説明:
プロンプト・インジェクションは、AI/LLMの最も一般的な脆弱性の1つであり、開発者なら誰でも予防法を知っているはずです。このビデオでは
第4週 -機密情報の開示:AIのデータ漏えいを避ける
AIを搭載したツールは、不注意で機密情報を漏えいさせ、アプリケーションやデータを危険にさらす可能性があります。このビデオでは、機密情報漏洩の脆弱性を取り上げ、AI/LLMを使用する際にそれらがどのように発生するかを説明し、開発者が暴露を減らすために取ることができる実践的なステップを共有します。
第5週AIサプライチェーンリスク:
AI支援開発はコーディングを加速させますが、同時にアプリケーションの各レイヤーに影響を与えうるサプライチェーンリスクをもたらします。このビデオでは、AI/LLMに関連する脆弱性を探り、サードパーティのモデルやAPIが攻撃対象領域をどのように拡大するかを説明し、暴露を最小限に抑えるための戦略を共有します。
Week 6 -Data Poisoning:AI モデルと出力の安全性を確保する
■AIシステムの安全性はその学習データによってのみ確保され、侵害された入力はアプリケーション全体に波及する脆弱性を生み出す可能性があります。このビデオでは、データポイズニング攻撃とモデルポイズニング攻撃を紹介し、悪意のある入力がどのようにAIの出力を操作するかを説明し、システムを保護するための戦略を共有します。
第7週- 不適切な出力処理:AI-Generated Code
ȀAIを搭載したツールはコードを高速に生成することができますが、出力が検証されていないと、脆弱性が気づかないうちに忍び込む可能性があります。このビデオでは、AI支援開発における不適切な出力処理を検証し、危険な出力がアプリケーションをどのように危険にさらすかを説明し、生成されたコードを保護するテクニックを共有します。
Week 8 - Excessive Agency:AI Autonomy Risks
︓AIシステムがより自律的に なるにつれ、過剰なエージェンシーは、モデルが意図した範囲を超えて行動する新たなリスクを生み出す。このビデオでは、AI支援開発における過剰なエージェンシーの脆弱性を探り、踏み越えた行動がどのように生じるかを説明し、AI主導のプロセスを制御し続けるための技法について議論する。
Week 9 - System Prompt Leakage: Hidden AI Security Risks
システムプロンプトには、AIの動作を誘導する隠された指示が含まれていることが多いが、これが暴露されると、攻撃者はモデルを操作したり、機密情報を引き出したりすることができる。このビデオでは、システムプロンプトの漏洩の脆弱性を取り上げ、それらがどのように発生するかを説明し、AIを利用したワークフローを保護するために開発者が取るべき手順について説明します。
第10週 ベクトルの弱点:
ȀAIモデルは強力な機能を提供するためにベクターデータベースとエンベッディングに依存することが多いが、誤った設定や安全でない実装は機密データを暴露し、新たな攻撃ベクトルを生み出す可能性がある。このビデオでは、ベクターとエンベッディングの弱点を掘り下げ、一般的なセキュリティ上の課題を説明し、AIを利用した検索ワークフローのセキュリティを確保するための戦略を共有します。
これらのビデオは、AI/LLMセキュリティの中核となる概念を紹介するためのものですが、Secure Code Warrior プラットフォーム内には、さらに多くの探索があります。実際のAIによるコードレビューと修正をシミュレートするAIチャレンジ、業界のベストプラクティスに沿ったAI/LLMガイドライン、セキュアなコーディング習慣を構築するための実践的な経験を提供するウォークスルー、Missions、クエスト、コーステンプレートに取り組んでください。また、スキルアップを目指すチームには、AIを使ったコーディング、AIリスクとセキュリティ入門、LLMアプリケーションのためのOWASPトップ10などのトピックを含む、AI/LLMに焦点を当てた130以上の学習アクティビティライブラリが用意されています。 詳細については、デモをリクエストしてください。


12週間にわたるAI/LLMセキュリティ・ビデオ・シリーズのオールインワン・ガイドです。すべてのエピソードをご覧いただき、AIセキュリティの重要な概念を学び、毎週フォローしてください。
Shannon Holt は、アプリケーション セキュリティ、クラウド セキュリティ サービス、PCI-DSS や HITRUST などのコンプライアンス標準に関する経験を持つサイバー セキュリティ製品のマーケティング担当者です。

Secure Code Warrior は、ソフトウェア開発ライフサイクル全体にわたってコードを保護し、サイバーセキュリティを最優先とする企業文化を創造するために、お客様の組織を支援します。AppSec マネージャー、開発者、CISO、またはセキュリティに関わるすべての人が、安全でないコードに関連するリスクを減らすことができるよう、支援します。
デモを予約するShannon Holt は、アプリケーション セキュリティ、クラウド セキュリティ サービス、PCI-DSS や HITRUST などのコンプライアンス標準に関する経験を持つサイバー セキュリティ製品のマーケティング担当者です。
シャノン・ホルトは、アプリケーションセキュリティ、クラウドセキュリティサービス、そしてPCI-DSSやHITRUSTといったコンプライアンス標準に精通したサイバーセキュリティ製品マーケターです。彼女は、セキュリティに対する期待と現代のソフトウェア開発の現実とのギャップを埋め、技術チームにとって安全な開発とコンプライアンスをより実践的で身近なものにすることに情熱を注いでいます。


AI/LLMセキュリティ入門シリーズのご案内
GitHub CopilotやCursorなどのAIコーディングツールは、ソフトウェアの構築方法を再構築していますが、安全で信頼性の高いアプリケーションを構築するために開発者が理解しなければならない新たなセキュリティ上の課題ももたらしています。チームがAIを安全に導入できるよう、私たちはYouTubeで12週間の無料AI/LLMセキュリティ入門ビデオシリーズを作成しました。
この投稿は、このシリーズの中心的なハブとなります。毎週、新しいビデオと説明を更新し、プロンプトインジェクション、データとモデルポイズニング、サプライチェーンリスク、セキュアプロンプトなどの重要な概念を取り上げます。このページをブックマークして毎週フォローするか、 YouTubeチャンネルに登録してレッスンが公開されたらすぐに入手しましょう。
この入門編をさらに深く知りたい方は、SCWプラットフォームのAI/LLMコレクションをご覧いただくか、デモをリクエストしてください。YouTubeチャンネルをご登録いただくと、新しいエピソードが公開されるたびにご覧いただけます。また、最新のコンテンツ、アップデート、リソースをご希望の方は、こちらからオプトインして、開発者やセキュリティ・リーダーのコミュニティにご参加ください。
エピソード(毎週更新)
第1週 -AIコーディングのリスク:LLM を使用することの危険性
このビデオでは、コードを書く際に AI/LLM を使用することの潜在的な危険性を探り、AI を搭載したツールをワークフローに組み込む際に開発者が直面する主なリスクを明らかにします。
第2週 - AIコーディングの利点:Secure AI-Assisted Development
ȀAIコーディングツールは危険なだけではない - 安全に使用すれば、開発者の作業を迅速かつスマートにすることができる。このビデオでは、コードを書く際にAI/LLMを使用する利点を探求し、一般的なセキュリティの落とし穴を避けながら、チームが責任を持ってAIを活用する方法を紹介します。
第3週- プロンプト・インジェクションの説明:
プロンプト・インジェクションは、AI/LLMの最も一般的な脆弱性の1つであり、開発者なら誰でも予防法を知っているはずです。このビデオでは
第4週 -機密情報の開示:AIのデータ漏えいを避ける
AIを搭載したツールは、不注意で機密情報を漏えいさせ、アプリケーションやデータを危険にさらす可能性があります。このビデオでは、機密情報漏洩の脆弱性を取り上げ、AI/LLMを使用する際にそれらがどのように発生するかを説明し、開発者が暴露を減らすために取ることができる実践的なステップを共有します。
第5週AIサプライチェーンリスク:
AI支援開発はコーディングを加速させますが、同時にアプリケーションの各レイヤーに影響を与えうるサプライチェーンリスクをもたらします。このビデオでは、AI/LLMに関連する脆弱性を探り、サードパーティのモデルやAPIが攻撃対象領域をどのように拡大するかを説明し、暴露を最小限に抑えるための戦略を共有します。
Week 6 -Data Poisoning:AI モデルと出力の安全性を確保する
■AIシステムの安全性はその学習データによってのみ確保され、侵害された入力はアプリケーション全体に波及する脆弱性を生み出す可能性があります。このビデオでは、データポイズニング攻撃とモデルポイズニング攻撃を紹介し、悪意のある入力がどのようにAIの出力を操作するかを説明し、システムを保護するための戦略を共有します。
第7週- 不適切な出力処理:AI-Generated Code
ȀAIを搭載したツールはコードを高速に生成することができますが、出力が検証されていないと、脆弱性が気づかないうちに忍び込む可能性があります。このビデオでは、AI支援開発における不適切な出力処理を検証し、危険な出力がアプリケーションをどのように危険にさらすかを説明し、生成されたコードを保護するテクニックを共有します。
Week 8 - Excessive Agency:AI Autonomy Risks
︓AIシステムがより自律的に なるにつれ、過剰なエージェンシーは、モデルが意図した範囲を超えて行動する新たなリスクを生み出す。このビデオでは、AI支援開発における過剰なエージェンシーの脆弱性を探り、踏み越えた行動がどのように生じるかを説明し、AI主導のプロセスを制御し続けるための技法について議論する。
Week 9 - System Prompt Leakage: Hidden AI Security Risks
システムプロンプトには、AIの動作を誘導する隠された指示が含まれていることが多いが、これが暴露されると、攻撃者はモデルを操作したり、機密情報を引き出したりすることができる。このビデオでは、システムプロンプトの漏洩の脆弱性を取り上げ、それらがどのように発生するかを説明し、AIを利用したワークフローを保護するために開発者が取るべき手順について説明します。
第10週 ベクトルの弱点:
ȀAIモデルは強力な機能を提供するためにベクターデータベースとエンベッディングに依存することが多いが、誤った設定や安全でない実装は機密データを暴露し、新たな攻撃ベクトルを生み出す可能性がある。このビデオでは、ベクターとエンベッディングの弱点を掘り下げ、一般的なセキュリティ上の課題を説明し、AIを利用した検索ワークフローのセキュリティを確保するための戦略を共有します。
これらのビデオは、AI/LLMセキュリティの中核となる概念を紹介するためのものですが、Secure Code Warrior プラットフォーム内には、さらに多くの探索があります。実際のAIによるコードレビューと修正をシミュレートするAIチャレンジ、業界のベストプラクティスに沿ったAI/LLMガイドライン、セキュアなコーディング習慣を構築するための実践的な経験を提供するウォークスルー、Missions、クエスト、コーステンプレートに取り組んでください。また、スキルアップを目指すチームには、AIを使ったコーディング、AIリスクとセキュリティ入門、LLMアプリケーションのためのOWASPトップ10などのトピックを含む、AI/LLMに焦点を当てた130以上の学習アクティビティライブラリが用意されています。 詳細については、デモをリクエストしてください。

AI/LLMセキュリティ入門シリーズのご案内
GitHub CopilotやCursorなどのAIコーディングツールは、ソフトウェアの構築方法を再構築していますが、安全で信頼性の高いアプリケーションを構築するために開発者が理解しなければならない新たなセキュリティ上の課題ももたらしています。チームがAIを安全に導入できるよう、私たちはYouTubeで12週間の無料AI/LLMセキュリティ入門ビデオシリーズを作成しました。
この投稿は、このシリーズの中心的なハブとなります。毎週、新しいビデオと説明を更新し、プロンプトインジェクション、データとモデルポイズニング、サプライチェーンリスク、セキュアプロンプトなどの重要な概念を取り上げます。このページをブックマークして毎週フォローするか、 YouTubeチャンネルに登録してレッスンが公開されたらすぐに入手しましょう。
この入門編をさらに深く知りたい方は、SCWプラットフォームのAI/LLMコレクションをご覧いただくか、デモをリクエストしてください。YouTubeチャンネルをご登録いただくと、新しいエピソードが公開されるたびにご覧いただけます。また、最新のコンテンツ、アップデート、リソースをご希望の方は、こちらからオプトインして、開発者やセキュリティ・リーダーのコミュニティにご参加ください。
エピソード(毎週更新)
第1週 -AIコーディングのリスク:LLM を使用することの危険性
このビデオでは、コードを書く際に AI/LLM を使用することの潜在的な危険性を探り、AI を搭載したツールをワークフローに組み込む際に開発者が直面する主なリスクを明らかにします。
第2週 - AIコーディングの利点:Secure AI-Assisted Development
ȀAIコーディングツールは危険なだけではない - 安全に使用すれば、開発者の作業を迅速かつスマートにすることができる。このビデオでは、コードを書く際にAI/LLMを使用する利点を探求し、一般的なセキュリティの落とし穴を避けながら、チームが責任を持ってAIを活用する方法を紹介します。
第3週- プロンプト・インジェクションの説明:
プロンプト・インジェクションは、AI/LLMの最も一般的な脆弱性の1つであり、開発者なら誰でも予防法を知っているはずです。このビデオでは
第4週 -機密情報の開示:AIのデータ漏えいを避ける
AIを搭載したツールは、不注意で機密情報を漏えいさせ、アプリケーションやデータを危険にさらす可能性があります。このビデオでは、機密情報漏洩の脆弱性を取り上げ、AI/LLMを使用する際にそれらがどのように発生するかを説明し、開発者が暴露を減らすために取ることができる実践的なステップを共有します。
第5週AIサプライチェーンリスク:
AI支援開発はコーディングを加速させますが、同時にアプリケーションの各レイヤーに影響を与えうるサプライチェーンリスクをもたらします。このビデオでは、AI/LLMに関連する脆弱性を探り、サードパーティのモデルやAPIが攻撃対象領域をどのように拡大するかを説明し、暴露を最小限に抑えるための戦略を共有します。
Week 6 -Data Poisoning:AI モデルと出力の安全性を確保する
■AIシステムの安全性はその学習データによってのみ確保され、侵害された入力はアプリケーション全体に波及する脆弱性を生み出す可能性があります。このビデオでは、データポイズニング攻撃とモデルポイズニング攻撃を紹介し、悪意のある入力がどのようにAIの出力を操作するかを説明し、システムを保護するための戦略を共有します。
第7週- 不適切な出力処理:AI-Generated Code
ȀAIを搭載したツールはコードを高速に生成することができますが、出力が検証されていないと、脆弱性が気づかないうちに忍び込む可能性があります。このビデオでは、AI支援開発における不適切な出力処理を検証し、危険な出力がアプリケーションをどのように危険にさらすかを説明し、生成されたコードを保護するテクニックを共有します。
Week 8 - Excessive Agency:AI Autonomy Risks
︓AIシステムがより自律的に なるにつれ、過剰なエージェンシーは、モデルが意図した範囲を超えて行動する新たなリスクを生み出す。このビデオでは、AI支援開発における過剰なエージェンシーの脆弱性を探り、踏み越えた行動がどのように生じるかを説明し、AI主導のプロセスを制御し続けるための技法について議論する。
Week 9 - System Prompt Leakage: Hidden AI Security Risks
システムプロンプトには、AIの動作を誘導する隠された指示が含まれていることが多いが、これが暴露されると、攻撃者はモデルを操作したり、機密情報を引き出したりすることができる。このビデオでは、システムプロンプトの漏洩の脆弱性を取り上げ、それらがどのように発生するかを説明し、AIを利用したワークフローを保護するために開発者が取るべき手順について説明します。
第10週 ベクトルの弱点:
ȀAIモデルは強力な機能を提供するためにベクターデータベースとエンベッディングに依存することが多いが、誤った設定や安全でない実装は機密データを暴露し、新たな攻撃ベクトルを生み出す可能性がある。このビデオでは、ベクターとエンベッディングの弱点を掘り下げ、一般的なセキュリティ上の課題を説明し、AIを利用した検索ワークフローのセキュリティを確保するための戦略を共有します。
これらのビデオは、AI/LLMセキュリティの中核となる概念を紹介するためのものですが、Secure Code Warrior プラットフォーム内には、さらに多くの探索があります。実際のAIによるコードレビューと修正をシミュレートするAIチャレンジ、業界のベストプラクティスに沿ったAI/LLMガイドライン、セキュアなコーディング習慣を構築するための実践的な経験を提供するウォークスルー、Missions、クエスト、コーステンプレートに取り組んでください。また、スキルアップを目指すチームには、AIを使ったコーディング、AIリスクとセキュリティ入門、LLMアプリケーションのためのOWASPトップ10などのトピックを含む、AI/LLMに焦点を当てた130以上の学習アクティビティライブラリが用意されています。 詳細については、デモをリクエストしてください。

以下のリンクをクリックし、この資料のPDFをダウンロードしてください。
Secure Code Warrior は、ソフトウェア開発ライフサイクル全体にわたってコードを保護し、サイバーセキュリティを最優先とする企業文化を創造するために、お客様の組織を支援します。AppSec マネージャー、開発者、CISO、またはセキュリティに関わるすべての人が、安全でないコードに関連するリスクを減らすことができるよう、支援します。
レポートを見るデモを予約するShannon Holt は、アプリケーション セキュリティ、クラウド セキュリティ サービス、PCI-DSS や HITRUST などのコンプライアンス標準に関する経験を持つサイバー セキュリティ製品のマーケティング担当者です。
シャノン・ホルトは、アプリケーションセキュリティ、クラウドセキュリティサービス、そしてPCI-DSSやHITRUSTといったコンプライアンス標準に精通したサイバーセキュリティ製品マーケターです。彼女は、セキュリティに対する期待と現代のソフトウェア開発の現実とのギャップを埋め、技術チームにとって安全な開発とコンプライアンスをより実践的で身近なものにすることに情熱を注いでいます。
AI/LLMセキュリティ入門シリーズのご案内
GitHub CopilotやCursorなどのAIコーディングツールは、ソフトウェアの構築方法を再構築していますが、安全で信頼性の高いアプリケーションを構築するために開発者が理解しなければならない新たなセキュリティ上の課題ももたらしています。チームがAIを安全に導入できるよう、私たちはYouTubeで12週間の無料AI/LLMセキュリティ入門ビデオシリーズを作成しました。
この投稿は、このシリーズの中心的なハブとなります。毎週、新しいビデオと説明を更新し、プロンプトインジェクション、データとモデルポイズニング、サプライチェーンリスク、セキュアプロンプトなどの重要な概念を取り上げます。このページをブックマークして毎週フォローするか、 YouTubeチャンネルに登録してレッスンが公開されたらすぐに入手しましょう。
この入門編をさらに深く知りたい方は、SCWプラットフォームのAI/LLMコレクションをご覧いただくか、デモをリクエストしてください。YouTubeチャンネルをご登録いただくと、新しいエピソードが公開されるたびにご覧いただけます。また、最新のコンテンツ、アップデート、リソースをご希望の方は、こちらからオプトインして、開発者やセキュリティ・リーダーのコミュニティにご参加ください。
エピソード(毎週更新)
第1週 -AIコーディングのリスク:LLM を使用することの危険性
このビデオでは、コードを書く際に AI/LLM を使用することの潜在的な危険性を探り、AI を搭載したツールをワークフローに組み込む際に開発者が直面する主なリスクを明らかにします。
第2週 - AIコーディングの利点:Secure AI-Assisted Development
ȀAIコーディングツールは危険なだけではない - 安全に使用すれば、開発者の作業を迅速かつスマートにすることができる。このビデオでは、コードを書く際にAI/LLMを使用する利点を探求し、一般的なセキュリティの落とし穴を避けながら、チームが責任を持ってAIを活用する方法を紹介します。
第3週- プロンプト・インジェクションの説明:
プロンプト・インジェクションは、AI/LLMの最も一般的な脆弱性の1つであり、開発者なら誰でも予防法を知っているはずです。このビデオでは
第4週 -機密情報の開示:AIのデータ漏えいを避ける
AIを搭載したツールは、不注意で機密情報を漏えいさせ、アプリケーションやデータを危険にさらす可能性があります。このビデオでは、機密情報漏洩の脆弱性を取り上げ、AI/LLMを使用する際にそれらがどのように発生するかを説明し、開発者が暴露を減らすために取ることができる実践的なステップを共有します。
第5週AIサプライチェーンリスク:
AI支援開発はコーディングを加速させますが、同時にアプリケーションの各レイヤーに影響を与えうるサプライチェーンリスクをもたらします。このビデオでは、AI/LLMに関連する脆弱性を探り、サードパーティのモデルやAPIが攻撃対象領域をどのように拡大するかを説明し、暴露を最小限に抑えるための戦略を共有します。
Week 6 -Data Poisoning:AI モデルと出力の安全性を確保する
■AIシステムの安全性はその学習データによってのみ確保され、侵害された入力はアプリケーション全体に波及する脆弱性を生み出す可能性があります。このビデオでは、データポイズニング攻撃とモデルポイズニング攻撃を紹介し、悪意のある入力がどのようにAIの出力を操作するかを説明し、システムを保護するための戦略を共有します。
第7週- 不適切な出力処理:AI-Generated Code
ȀAIを搭載したツールはコードを高速に生成することができますが、出力が検証されていないと、脆弱性が気づかないうちに忍び込む可能性があります。このビデオでは、AI支援開発における不適切な出力処理を検証し、危険な出力がアプリケーションをどのように危険にさらすかを説明し、生成されたコードを保護するテクニックを共有します。
Week 8 - Excessive Agency:AI Autonomy Risks
︓AIシステムがより自律的に なるにつれ、過剰なエージェンシーは、モデルが意図した範囲を超えて行動する新たなリスクを生み出す。このビデオでは、AI支援開発における過剰なエージェンシーの脆弱性を探り、踏み越えた行動がどのように生じるかを説明し、AI主導のプロセスを制御し続けるための技法について議論する。
Week 9 - System Prompt Leakage: Hidden AI Security Risks
システムプロンプトには、AIの動作を誘導する隠された指示が含まれていることが多いが、これが暴露されると、攻撃者はモデルを操作したり、機密情報を引き出したりすることができる。このビデオでは、システムプロンプトの漏洩の脆弱性を取り上げ、それらがどのように発生するかを説明し、AIを利用したワークフローを保護するために開発者が取るべき手順について説明します。
第10週 ベクトルの弱点:
ȀAIモデルは強力な機能を提供するためにベクターデータベースとエンベッディングに依存することが多いが、誤った設定や安全でない実装は機密データを暴露し、新たな攻撃ベクトルを生み出す可能性がある。このビデオでは、ベクターとエンベッディングの弱点を掘り下げ、一般的なセキュリティ上の課題を説明し、AIを利用した検索ワークフローのセキュリティを確保するための戦略を共有します。
これらのビデオは、AI/LLMセキュリティの中核となる概念を紹介するためのものですが、Secure Code Warrior プラットフォーム内には、さらに多くの探索があります。実際のAIによるコードレビューと修正をシミュレートするAIチャレンジ、業界のベストプラクティスに沿ったAI/LLMガイドライン、セキュアなコーディング習慣を構築するための実践的な経験を提供するウォークスルー、Missions、クエスト、コーステンプレートに取り組んでください。また、スキルアップを目指すチームには、AIを使ったコーディング、AIリスクとセキュリティ入門、LLMアプリケーションのためのOWASPトップ10などのトピックを含む、AI/LLMに焦点を当てた130以上の学習アクティビティライブラリが用意されています。 詳細については、デモをリクエストしてください。
目次
Shannon Holt は、アプリケーション セキュリティ、クラウド セキュリティ サービス、PCI-DSS や HITRUST などのコンプライアンス標準に関する経験を持つサイバー セキュリティ製品のマーケティング担当者です。

Secure Code Warrior は、ソフトウェア開発ライフサイクル全体にわたってコードを保護し、サイバーセキュリティを最優先とする企業文化を創造するために、お客様の組織を支援します。AppSec マネージャー、開発者、CISO、またはセキュリティに関わるすべての人が、安全でないコードに関連するリスクを減らすことができるよう、支援します。
デモを予約するダウンロード












.png)

.avif)
.png)


