PromptGuard β版
あなたのAIアプリ、
乗っ取られていませんか?
5分で「プロンプト注入・情報漏洩」リスクを可視化。
ChatGPT・Claude・GeminiなどのLLMアプリに潜む危険を、URLを入力するだけで自動診断。 あなたのアプリの「本当の安全性」がわかります。
従来の診断では見抜けない、
新しい危険
従来のセキュリティ診断では検出できない、LLM特有の脆弱性が存在します
⚠️
プロンプトインジェクション
前の命令を無視させ内部情報を出力させる誘導
🔓
データリーク
会話履歴や内部プロンプトが露出
🚫
アクセス越権
本来見せてはいけないユーザー情報を出力
🔄
制限バイパス
禁止ワードや検閲を容易に回避
PromptGuard(β)でできること
LLM特有の脆弱性に特化した診断で、あなたのアプリを守ります
🛡️
プロンプト注入診断
攻撃的な指示を自動送信し挙動を検証
- ✓複数の攻撃パターンを自動実行
- ✓リアルタイムでの挙動監視
- ✓詳細なログ出力
🔍
情報漏洩チェック
会話履歴や内部プロンプトの露出確認
- ✓会話履歴の漏洩検出
- ✓内部プロンプトの露出確認
- ✓機密情報の特定
📊
リスクスコアと改善提案
スコア化+日本語の改善ガイド
- ✓総合リスクスコア算出
- ✓具体的な改善提案
- ✓優先度付きの対策リスト
診断は3ステップで完了
複雑な設定は不要。URLを入力するだけで、すぐに診断を開始できます
1
URLまたはAPIエンドポイントを入力
診断したいアプリのエンドポイントを入力してください
2
自動で複数の攻撃プロンプトを送信・解析
PromptGuardが自動的にセキュリティテストを実行します
3
リスクスコア・診断結果・改善提案を表示
詳細な診断結果と具体的な改善方法をご提案します
診断結果サンプル
プロンプト注入耐性45点(危険)
データ漏洩耐性80点(安全)
制限バイパス耐性60点(注意)
総合スコア:62点
(注意が必要です)
現在、βテスターを募集中!
クローズドβ期間中は無料でお試しいただけます。
正式版前にご意見をお寄せください。
よくある質問
PromptGuardについて、よくお寄せいただく質問にお答えします