PromptGuard β版

あなたのAIアプリ、
乗っ取られていませんか?

5分で「プロンプト注入・情報漏洩」リスクを可視化。
ChatGPT・Claude・GeminiなどのLLMアプリに潜む危険を、URLを入力するだけで自動診断。 あなたのアプリの「本当の安全性」がわかります。

従来の診断では見抜けない、
新しい危険

従来のセキュリティ診断では検出できない、LLM特有の脆弱性が存在します

⚠️

プロンプトインジェクション

前の命令を無視させ内部情報を出力させる誘導

🔓

データリーク

会話履歴や内部プロンプトが露出

🚫

アクセス越権

本来見せてはいけないユーザー情報を出力

🔄

制限バイパス

禁止ワードや検閲を容易に回避

PromptGuard(β)でできること

LLM特有の脆弱性に特化した診断で、あなたのアプリを守ります

🛡️

プロンプト注入診断

攻撃的な指示を自動送信し挙動を検証

  • 複数の攻撃パターンを自動実行
  • リアルタイムでの挙動監視
  • 詳細なログ出力
🔍

情報漏洩チェック

会話履歴や内部プロンプトの露出確認

  • 会話履歴の漏洩検出
  • 内部プロンプトの露出確認
  • 機密情報の特定
📊

リスクスコアと改善提案

スコア化+日本語の改善ガイド

  • 総合リスクスコア算出
  • 具体的な改善提案
  • 優先度付きの対策リスト

診断は3ステップで完了

複雑な設定は不要。URLを入力するだけで、すぐに診断を開始できます

1

URLまたはAPIエンドポイントを入力

診断したいアプリのエンドポイントを入力してください

2

自動で複数の攻撃プロンプトを送信・解析

PromptGuardが自動的にセキュリティテストを実行します

3

リスクスコア・診断結果・改善提案を表示

詳細な診断結果と具体的な改善方法をご提案します

診断結果サンプル

プロンプト注入耐性45点(危険)
データ漏洩耐性80点(安全)
制限バイパス耐性60点(注意)
総合スコア:62点

(注意が必要です)

現在、βテスターを募集中!

クローズドβ期間中は無料でお試しいただけます。
正式版前にご意見をお寄せください。

※ 登録いただいたメールアドレスは、β版のご案内以外には使用いたしません

> 「この診断は、あなたが所有または明示的許可を得たアプリに対してのみ実行してください。」

プライバシーポリシー

よくある質問

PromptGuardについて、よくお寄せいただく質問にお答えします