論文の概要: AudAgent: Automated Auditing of Privacy Policy Compliance in AI Agents
- arxiv url: http://arxiv.org/abs/2511.07441v1
- Date: Wed, 12 Nov 2025 01:00:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-12 20:17:03.327186
- Title: AudAgent: Automated Auditing of Privacy Policy Compliance in AI Agents
- Title(参考訳): AIエージェントにおけるプライバシポリシ準拠の監査を自動化するAudAgent
- Authors: Ye Zheng, Yidan Hu,
- Abstract要約: AudAgentは、AIエージェントのデータプラクティスをリアルタイムで監視するビジュアルフレームワークである。
AudAgentは、リアルタイムに潜在的なプライバシーポリシー違反を効果的に識別する。
- 参考スコア(独自算出の注目度): 3.802907024025868
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: AI agents can autonomously perform tasks and, often without explicit user consent, collect or disclose users' sensitive local data, which raises serious privacy concerns. Although AI agents' privacy policies may describe their intended data practices, there remains limited transparency and accountability about whether runtime behavior matches those policies. To close this gap, we introduce AudAgent, a visual framework that continuously monitors AI agents' data practices in real time and guards compliance with stated privacy policies. AudAgent consists of four components for automated privacy auditing of AI agents. (i) Policy parsing: an ensemble of LLMs translates natural-language privacy policies into a structured privacy-policy model, where cross-LLM voting guarantees confidence of the parsing results. (ii) Runtime annotation: a lightweight Presidio-based analyzer detects sensitive data and annotates how the data is used based on the context of the AI agent's operations and the privacy-policy model. (iii) Compliance auditing: ontology alignment and automata-based evaluation connect the policy model with runtime annotations, enabling on-the-fly compliance checks between the natural-language policy and observed unordered data practices of AI agents. (iv) User interface: a platform-independent implementation visualizes the real-time execution trace of AI agents along with potential privacy risks detected during auditing, providing user-friendly transparency and accountability. In addition to common formatted privacy policies, AudAgent also supports user-defined policies for fine-grained control and customization. We evaluate AudAgent on AI agents built upon mainstream programming frameworks such as AutoGen, experiments show that AudAgent effectively identifies potential privacy policy violations in real time.
- Abstract(参考訳): AIエージェントは、自律的にタスクを実行でき、多くの場合、明示的なユーザの同意なしに、ユーザの機密なローカルデータを収集または開示する。
AIエージェントのプライバシポリシは、彼らの意図したデータプラクティスを説明するかもしれないが、ランタイムの動作がそれらのポリシにマッチするかどうかに関して、透明性と説明責任は限定されている。
このギャップを埋めるために、私たちは、AIエージェントのデータプラクティスをリアルタイムで継続的に監視し、宣言されたプライバシポリシによるコンプライアンスを保護するビジュアルフレームワークであるAudAgentを紹介します。
AudAgentは、AIエージェントの自動プライバシ監査のための4つのコンポーネントで構成されている。
(i)ポリシー解析:LLMのアンサンブルは、自然言語のプライバシーポリシーを構造化されたプライバシ・プライバシ・プライバシ・プライバシ・モデルに変換し、このモデルでは、クロスLLM投票によって解析結果の信頼性が保証される。
(ii)実行時アノテーション: 軽量のPresidioベースのアナライザは、機密データを検出し、AIエージェントの操作のコンテキストとプライバシポリシモデルに基づいて、データの使い方を注釈する。
三 コンプライアンス監査:オントロジーアライメントとオートマタベースの評価は、ポリシーモデルとランタイムアノテーションを結びつけ、自然言語ポリシーとAIエージェントの未順序データプラクティスの監視との間のオンザフライコンプライアンスチェックを可能にする。
(iv)ユーザインターフェース: プラットフォームに依存しない実装は、監査中に検出された潜在的なプライバシーリスクとともに、AIエージェントのリアルタイム実行トレースを可視化し、ユーザフレンドリな透明性と説明責任を提供します。
共通フォーマットのプライバシポリシに加えて、AudAgentはきめ細かいコントロールとカスタマイズのためのユーザ定義ポリシもサポートする。
我々は、AutoGenなどの主流プログラミングフレームワーク上に構築されたAIエージェントに対して、AudAgentを評価する。
関連論文リスト
- What's the next frontier for Data-centric AI? Data Savvy Agents [71.76058707995398]
我々は、エージェントシステムの設計において、データに精通する能力が最優先すべきであると主張している。
本稿では,このビジョンを実現するための4つの重要な機能を提案する。プロアクティブデータ取得,ソフシフィケートデータ処理,インタラクティブテストデータ合成,連続的適応。
論文 参考訳(メタデータ) (2025-11-02T17:09:29Z) - Policy-as-Prompt: Turning AI Governance Rules into Guardrails for AI Agents [0.19336815376402716]
我々は、構造化されていない設計成果物(RD、TDD、コードなど)を検証可能なランタイムガードレールに変換する規制機械学習フレームワークを導入します。
Promptメソッドとしての私たちのポリシーは、これらのドキュメントを読み、ソースリンクされたポリシーツリーを構築するためのリスクコントロールです。
システムは最小限の特権とデータ最小化を強制するために構築される。
論文 参考訳(メタデータ) (2025-09-28T17:36:52Z) - MAGPIE: A dataset for Multi-AGent contextual PrIvacy Evaluation [54.410825977390274]
LLMエージェントのコンテキストプライバシを評価するための既存のベンチマークは、主にシングルターン、低複雑さタスクを評価する。
まず、15ドメインにわたる158のリアルタイムハイテイクシナリオからなるベンチマーク-MAGPIEを示す。
次に、コンテキスト的にプライベートなデータに対する理解と、ユーザのプライバシを侵害することなくコラボレーションする能力に基づいて、最先端のLCMを評価します。
論文 参考訳(メタデータ) (2025-06-25T18:04:25Z) - DRIFT: Dynamic Rule-Based Defense with Injection Isolation for Securing LLM Agents [52.92354372596197]
大規模言語モデル(LLM)は、強力な推論と計画能力のため、エージェントシステムの中心となってきています。
この相互作用は、外部ソースからの悪意のある入力がエージェントの振る舞いを誤解させる可能性がある、インジェクション攻撃のリスクも引き起こす。
本稿では,信頼に値するエージェントシステムのための動的ルールベースの分離フレームワークを提案する。
論文 参考訳(メタデータ) (2025-06-13T05:01:09Z) - Beyond Jailbreaking: Auditing Contextual Privacy in LLM Agents [43.303548143175256]
本研究では,リスクに対するエージェントの感受性を定量的に評価する,会話プライバシのための監査フレームワークを提案する。
CMPL(Conversational Manipulation for Privacy Leakage)フレームワークは、厳格なプライバシー命令を強制するエージェントをストレステストするために設計されている。
論文 参考訳(メタデータ) (2025-06-11T20:47:37Z) - AgentDAM: Privacy Leakage Evaluation for Autonomous Web Agents [66.29263282311258]
我々は、AIウェブナビゲーションエージェントがデータ最小化のプライバシー原則に従うかどうかを測定する新しいベンチマークAgentDAMを紹介する。
我々のベンチマークは、現実的なWebインタラクションシナリオをエンドツーエンドでシミュレートし、既存のWebナビゲーションエージェントに適応する。
論文 参考訳(メタデータ) (2025-03-12T19:30:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。