論文の概要: AgentRaft: Automated Detection of Data Over-Exposure in LLM Agents
- arxiv url: http://arxiv.org/abs/2603.07557v1
- Date: Sun, 08 Mar 2026 09:40:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-10 15:13:14.805578
- Title: AgentRaft: Automated Detection of Data Over-Exposure in LLM Agents
- Title(参考訳): AgentRaft: LLMエージェントにおけるデータオーバー露光の自動検出
- Authors: Yixi Lin, Jiangrong Wu, Yuhong Nan, Xueqiang Wang, Xinyuan Zhang, Zibin Zheng,
- Abstract要約: 本稿では,大規模言語モデル(LLM)エージェントにおけるデータオーバー露光(DOE)リスクを検出するための,最初の自動化フレームワークであるAgentRaftを紹介する。
実世界のエージェントツール6,675のテスト環境でAgentRaftを評価した。
- 参考スコア(独自算出の注目度): 40.88941407116349
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The rapid integration of Large Language Model (LLM) agents into autonomous task execution has introduced significant privacy concerns within cross-tool data flows. In this paper, we systematically investigate and define a novel risk termed Data Over-Exposure (DOE) in LLM Agent, where an Agent inadvertently transmits sensitive data beyond the scope of user intent and functional necessity. We identify that DOE is primarily driven by the broad data paradigms in tool design and the coarse-grained data processing inherent in LLMs. In this paper, we present AgentRaft, the first automated framework for detecting DOE risks in LLM agents. AgentRaft combines program analysis with semantic reasoning through three synergistic modules: (1) it constructs a Cross-Tool Function Call Graph (FCG) to model the interaction landscape of heterogeneous tools; (2) it traverses the FCG to synthesize high-quality testing user prompts that act as deterministic triggers for deep-layer tool execution; and (3) it performs runtime taint tracking and employs a multi-LLM voting committee grounded in global privacy regulations (e.g., GDPR, CCPA, PIPL) to accurately identify privacy violations. We evaluate AgentRaft on a testing environment of 6,675 real-world agent tools. Our findings reveal that DOE is indeed a systemic risk, prevalent in 57.07% of potential tool interaction paths. AgentRaft achieves a high detection accuracy and effectiveness, outperforming baselines by 87.24%. Furthermore, AgentRaft reaches near-total DOE coverage (99%) within only 150 prompts while reducing per-chain verification costs by 88.6%. Our work provides a practical foundation for building auditable and privacy-compliant LLM agent systems.
- Abstract(参考訳): 大規模言語モデル(LLM)エージェントを自律的なタスク実行に迅速に統合することで、クロスツールデータフローにおける重要なプライバシー上の懸念がもたらされた。
本稿では, LLM Agentにおいて, エージェントがユーザ意図や機能的必要性の範囲を超えて, 機密データを不注意に送信する新たなリスク・オーバー・エクスポージャー(DOE)を体系的に検討し, 定義する。
DOEは主に、ツール設計における幅広いデータパラダイムと、LLMに固有の粗い粒度のデータ処理によって駆動される。
本稿では, LLM エージェントにおける DOE リスクを検出するための最初の自動フレームワークである AgentRaft を提案する。
AgentRaftは,プログラム解析とセマンティック推論を3つの相乗的モジュールを通じて組み合わせ,(1)異種ツールの相互作用環境をモデル化するクロスツール関数コールグラフ(FCG)の構築,(2)多層ツール実行のための決定的トリガとして機能する高品質テストユーザプロンプトの合成,(3)グローバルプライバシ規制に基づくマルチLLM投票委員会(GDPR,CCPA,PIPL)を実施。
実世界のエージェントツール6,675のテスト環境でAgentRaftを評価した。
以上の結果から,DOEはシステム的リスクであり,57.07%の潜在的なツール相互作用経路で有効であることが判明した。
AgentRaftは高い検出精度と有効性を実現し、ベースラインを87.24%上回る。
さらに、AgentRaftは150プロンプト以内でほぼ完全なDOEカバレッジ(99%)に達し、チェーンごとの検証コストは88.6%削減された。
我々の研究は、監査およびプライバシに準拠するLLMエージェントシステムを構築するための実践的な基盤を提供する。
関連論文リスト
- AgentSelect: Benchmark for Narrative Query-to-Agent Recommendation [39.61543921719145]
AgentSelectは、エージェントの選択をナラティブクエリからエージェントへのレコメンデーションとして再設計するベンチマークである。
異種評価アーティファクトを、統一された正のみの相互作用データに変換する。
AgentSelectは、エージェントレコメンデーションのための最初の統一データと評価インフラストラクチャを提供する。
論文 参考訳(メタデータ) (2026-03-04T06:17:51Z) - SmartSnap: Proactive Evidence Seeking for Self-Verifying Agents [45.71333459905404]
SmartSnapは、受動的でポストホックな検証から、エージェント自身による積極的な自己検証へのパラダイムシフトである。
両ミッションで設計された新しいタイプのエージェントである「自己検証エージェント」を導入し、タスクを完了し、検証された証拠でその達成を証明した。
モデルファミリとスケールにわたるモバイルタスクの実験は、SmartSnapパラダイムによって、スケーラブルなLLM駆動エージェントのトレーニングが可能になることを実証しています。
論文 参考訳(メタデータ) (2025-12-26T14:51:39Z) - Exposing LLM User Privacy via Traffic Fingerprint Analysis: A Study of Privacy Risks in LLM Agent Interactions [31.392818526374963]
大きな言語モデル(LLM)は、タスクを編成し、外部ツールを統合するエージェントとして、ますます多くデプロイされている。
これらの対話行動は、ユーザとLLMエージェント間の暗号化されたトラフィックに特徴的な指紋を残していることを示す。
エージェントやツールの呼び出しに関連するトラフィックパターンを分析することで、敵はエージェントアクティビティを推論できる。
論文 参考訳(メタデータ) (2025-10-08T16:16:23Z) - AgentArmor: Enforcing Program Analysis on Agent Runtime Trace to Defend Against Prompt Injection [14.522205401511727]
大きな言語モデル(LLM)エージェントは、自然言語推論と外部ツールの実行を組み合わせることで、さまざまな問題を解決するための強力な新しいパラダイムを提供する。
本研究では,エージェントランタイムトレースを解析可能なセマンティクスを用いた構造化プログラムとして扱う新しい知見を提案する。
本稿では,エージェントトレースをグラフ中間表現に基づく構造化プログラム依存表現に変換するプログラム解析フレームワークであるAgentArmorを提案する。
論文 参考訳(メタデータ) (2025-08-02T07:59:34Z) - DrugPilot: LLM-based Parameterized Reasoning Agent for Drug Discovery [54.79763887844838]
大規模言語モデル(LLM)と自律エージェントの統合は、自動推論とタスク実行を通じて科学的発見を促進する大きな可能性を秘めている。
本稿では,薬物発見におけるエンドツーエンド科学のために設計されたパラメータ化推論アーキテクチャを備えたLSMベースのエージェントシステムであるDrarmPilotを紹介する。
DrugPilot は ReAct や LoT のような最先端のエージェントよりも優れており、タスク完了率は98.0%、93.5%、64.0%である。
論文 参考訳(メタデータ) (2025-05-20T05:18:15Z) - AgentVigil: Generic Black-Box Red-teaming for Indirect Prompt Injection against LLM Agents [54.29555239363013]
本稿では,間接的なインジェクション脆弱性を自動的に検出し,悪用するための汎用的なブラックボックスファジリングフレームワークであるAgentVigilを提案する。
我々はAgentVigilをAgentDojoとVWA-advの2つの公開ベンチマークで評価し、o3-miniとGPT-4oに基づくエージェントに対して71%と70%の成功率を達成した。
攻撃を現実世界の環境に適用し、悪質なサイトを含む任意のURLに誘導するエージェントをうまく誘導する。
論文 参考訳(メタデータ) (2025-05-09T07:40:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。