論文の概要: Agent Tools Orchestration Leaks More: Dataset, Benchmark, and Mitigation
- arxiv url: http://arxiv.org/abs/2512.16310v1
- Date: Thu, 18 Dec 2025 08:50:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-19 18:10:31.990054
- Title: Agent Tools Orchestration Leaks More: Dataset, Benchmark, and Mitigation
- Title(参考訳): エージェントツールオーケストレーションがさらにリーク:データセット、ベンチマーク、緩和
- Authors: Yuxuan Qiao, Dongqin Liu, Hongchang Yang, Wei Zhou, Songlin Hu,
- Abstract要約: ツールオーケストレーションプライバシリスク(TOP-R)は、エージェントが複数のツールにまたがる情報断片を自律的に集約する、厳しいプライバシリスクである。
本研究は、リスクの根本原因がエージェントの不整合目的機能に起因する、このリスクに関する最初の体系的な研究である。
本稿では,TOP-Rを効果的に緩和し,リスクリーク率を46.58%,Hスコアを0.624に向上させるプライバシ強化原理(PEP)法を提案する。
- 参考スコア(独自算出の注目度): 14.457129938672589
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Driven by Large Language Models, the single-agent, multi-tool architecture has become a popular paradigm for autonomous agents due to its simplicity and effectiveness. However, this architecture also introduces a new and severe privacy risk, which we term Tools Orchestration Privacy Risk (TOP-R), where an agent, to achieve a benign user goal, autonomously aggregates information fragments across multiple tools and leverages its reasoning capabilities to synthesize unexpected sensitive information. We provide the first systematic study of this risk. First, we establish a formal framework, attributing the risk's root cause to the agent's misaligned objective function: an overoptimization for helpfulness while neglecting privacy awareness. Second, we construct TOP-Bench, comprising paired leakage and benign scenarios, to comprehensively evaluate this risk. To quantify the trade-off between safety and robustness, we introduce the H-Score as a holistic metric. The evaluation results reveal that TOP-R is a severe risk: the average Risk Leakage Rate (RLR) of eight representative models reaches 90.24%, while the average H-Score is merely 0.167, with no model exceeding 0.3. Finally, we propose the Privacy Enhancement Principle (PEP) method, which effectively mitigates TOP-R, reducing the Risk Leakage Rate to 46.58% and significantly improving the H-Score to 0.624. Our work reveals both a new class of risk and inherent structural limitations in current agent architectures, while also offering feasible mitigation strategies.
- Abstract(参考訳): 単一エージェントのマルチツールアーキテクチャであるLarge Language Modelsによって駆動されるこのアーキテクチャは、そのシンプルさと効率性から、自律エージェントの一般的なパラダイムとなっている。
しかし、このアーキテクチャはまた、新しくて厳しいプライバシーリスクを導入し、エージェントが良心的なユーザ目標を達成するためにツールオーケストレーションプライバシリスク(TOP-R)と呼ばれ、複数のツールにまたがる情報断片を自律的に集約し、その推論能力を利用して予期せぬ機密情報を合成する。
このリスクに関する最初の体系的な研究を提供する。
まず,リスクの根本原因をエージェントの意図的機能の不整合に起因する形式的枠組みを構築し,プライバシの意識を無視しながら,役立ちを過度に最適化する。
第2に,このリスクを総合的に評価するために,ペアリークと良性シナリオからなるTOP-Benchを構築した。
安全性とロバスト性の間のトレードオフを定量化するために,Hスコアを総合計量として導入する。
評価の結果、TOP-Rは深刻なリスクであり、8つのモデルの平均リスクリークレート(RLR)は90.24%に達し、平均Hスコアは0.167であり、0.3を超えるモデルはないことが明らかになった。
最後に,TOP-Rを効果的に緩和し,リスクリーク率を46.58%,Hスコアを0.624に向上させるプライバシ強化原理(PEP)法を提案する。
我々の研究は、現在のエージェントアーキテクチャにおける新しいタイプのリスクと固有の構造的制約を明らかにしつつ、実現可能な緩和戦略も提供しています。
関連論文リスト
- Bilevel Optimization for Covert Memory Tampering in Heterogeneous Multi-Agent Architectures (XAMT) [0.0]
マルチエージェントシステム(MAS)は本質的に異種であり、従来のマルチエージェント強化学習(MARL)とLLM(Large Language Model)エージェントアーキテクチャを統合する。
MARLの共有エクスペリエンス再生(ER)バッファとRAGエージェントの外部知識ベース(K)である。
本稿では,XAMT (Bilevel Optimization for Covert Memory Tampering in Heterogeneous Multi-Agent Architectures) を提案する。
論文 参考訳(メタデータ) (2025-12-15T23:04:48Z) - RADAR: A Risk-Aware Dynamic Multi-Agent Framework for LLM Safety Evaluation via Role-Specialized Collaboration [81.38705556267917]
大規模言語モデル(LLM)の既存の安全性評価手法は、固有の制約に悩まされている。
リスク概念空間を再構築する理論的枠組みを導入する。
マルチエージェント協調評価フレームワークRADARを提案する。
論文 参考訳(メタデータ) (2025-09-28T09:35:32Z) - A Survey on Autonomy-Induced Security Risks in Large Model-Based Agents [45.53643260046778]
大規模言語モデル(LLM)の最近の進歩は、自律型AIエージェントの台頭を触媒している。
これらの大きなモデルエージェントは、静的推論システムからインタラクティブなメモリ拡張エンティティへのパラダイムシフトを示す。
論文 参考訳(メタデータ) (2025-06-30T13:34:34Z) - Risk-aware Direct Preference Optimization under Nested Risk Measure [23.336246526648374]
Ra-DPO(Ra-Aware Direct Preference Optimization)は、ネストしたリスク対策を取り入れた新しいアプローチである。
3つのオープンソースデータセットに対する実験結果は、アライメント性能とモデルドリフトのバランスをとる上で、提案手法の優れた性能を示す。
論文 参考訳(メタデータ) (2025-05-26T08:01:37Z) - Pessimism Meets Risk: Risk-Sensitive Offline Reinforcement Learning [19.292214425524303]
リスクに敏感な強化学習(RL)は,不確実性を管理し,潜在的な有害な結果を最小限に抑えることが不可欠であるシナリオにおいて,意思決定を強化する能力において重要な分野である。
本研究は, エントロピーリスク尺度をRL問題に適用することに焦点を当てる。
我々は,リスクに敏感な観点からはまだ検討されていない理論的枠組みである線形マルコフ決定プロセス(MDP)の設定を中心としている。
論文 参考訳(メタデータ) (2024-07-10T13:09:52Z) - Provable Risk-Sensitive Distributional Reinforcement Learning with
General Function Approximation [54.61816424792866]
本稿では,リスク感性分布強化学習(RS-DisRL)と静的リプシッツリスク対策(LRM),一般関数近似について紹介する。
モデルに基づく関数近似のためのモデルベース戦略であるtextttRS-DisRL-M と、一般値関数近似のためのモデルフリーアプローチである textttRS-DisRL-V の2つの革新的なメタアルゴリズムを設計する。
論文 参考訳(メタデータ) (2024-02-28T08:43:18Z) - Efficient Risk-Averse Reinforcement Learning [79.61412643761034]
リスク逆強化学習(RL)では、リターンのリスク測定を最適化することが目標である。
特定の条件下では、これは必然的に局所最適障壁につながることを証明し、それを回避するためのソフトリスク機構を提案する。
迷路ナビゲーション,自律運転,資源配分ベンチマークにおいて,リスク回避の改善を示す。
論文 参考訳(メタデータ) (2022-05-10T19:40:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。