論文の概要: Information-Theoretic Privacy Control for Sequential Multi-Agent LLM Systems
- arxiv url: http://arxiv.org/abs/2603.05520v1
- Date: Fri, 13 Feb 2026 18:23:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-15 16:38:22.373211
- Title: Information-Theoretic Privacy Control for Sequential Multi-Agent LLM Systems
- Title(参考訳): 逐次マルチエージェントLLMシステムの情報理論プライバシ制御
- Authors: Sadia Asif, Mohammad Mohammadi Amiri,
- Abstract要約: 逐次マルチエージェント大規模言語モデル (LLM) システムにおいて, 偶発的プライバシー漏洩について検討する。
そこで本研究では,エージェント出力とエージェントローカル依存変数間の情報フローを直接制約する,プライバシ規則化されたトレーニングフレームワークを提案する。
- 参考スコア(独自算出の注目度): 5.100622189286672
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Sequential multi-agent large language model (LLM) systems are increasingly deployed in sensitive domains such as healthcare, finance, and enterprise decision-making, where multiple specialized agents collaboratively process a single user request. Although individual agents may satisfy local privacy constraints, sensitive information can still be inferred through sequential composition and intermediate representations. In this work, we study \emph{compositional privacy leakage} in sequential LLM agent pipelines. We formalize leakage using mutual information and derive a theoretical bound that characterizes how locally introduced leakage can amplify across agents under sequential execution. Motivated by this analysis, we propose a privacy-regularized training framework that directly constrains information flow between agent outputs and agent-local sensitive variables. We evaluate our approach across sequential agent pipelines of varying depth on three benchmark datasets, demonstrating stable optimization dynamics and consistent, interpretable privacy-utility trade-offs. Our results show that privacy in agentic LLM systems cannot be guaranteed by local constraints alone and must instead be treated as a system-level property during both training and deployment.
- Abstract(参考訳): 複数の専門エージェントがひとつのユーザ要求を協調的に処理する、医療、金融、企業意思決定といった機密性の高いドメインに、LLM(Sequential Multi-agent Large Language Model)システムがますます導入されている。
個々のエージェントは局所的なプライバシー制約を満たすことができるが、センシティブな情報はシーケンシャルな合成と中間的な表現を通じて推論することができる。
本研究では,逐次LLMエージェントパイプラインにおけるemph{compositional privacy leakage}について検討する。
我々は、相互情報を用いて漏洩を形式化し、シーケンシャルな実行下でエージェント間でどのように局所的にリークが増幅できるかを特徴付ける理論的境界を導出する。
そこで本研究では,エージェント出力とエージェントローカル依存変数間の情報フローを直接制約する,プライバシ規則化されたトレーニングフレームワークを提案する。
3つのベンチマークデータセットで異なる深さのシーケンシャルなエージェントパイプラインにまたがるアプローチを評価し、安定した最適化のダイナミクスと、一貫性のある、解釈可能なプライバシユーティリティトレードオフを実証した。
この結果から,エージェントLLMシステムにおけるプライバシは,ローカル制約だけでは保証されず,トレーニングとデプロイメントの両方において,システムレベルのプロパティとして扱う必要があることが示唆された。
関連論文リスト
- AgentSelect: Benchmark for Narrative Query-to-Agent Recommendation [39.61543921719145]
AgentSelectは、エージェントの選択をナラティブクエリからエージェントへのレコメンデーションとして再設計するベンチマークである。
異種評価アーティファクトを、統一された正のみの相互作用データに変換する。
AgentSelectは、エージェントレコメンデーションのための最初の統一データと評価インフラストラクチャを提供する。
論文 参考訳(メタデータ) (2026-03-04T06:17:51Z) - AgentTrace: A Structured Logging Framework for Agent System Observability [0.0]
AgentTraceは、このギャップを埋めるために設計された動的可観測性とテレメトリフレームワークである。
従来のロギングシステムとは異なり、AgentTraceは継続的でイントロスペクタブルなトレースキャプチャを強調している。
我々の研究は、AgentTraceがより信頼性の高いエージェントデプロイメント、きめ細かいリスク分析、情報信頼の校正を可能にする方法を強調している。
論文 参考訳(メタデータ) (2026-02-07T04:04:59Z) - Towards Verifiably Safe Tool Use for LLM Agents [53.55621104327779]
大規模言語モデル(LLM)ベースのAIエージェントは、データソース、API、検索エンジン、コードサンドボックス、さらにはその他のエージェントなどのツールへのアクセスを可能にすることで、機能を拡張する。
LLMは意図しないツールインタラクションを起動し、機密データを漏洩したり、クリティカルレコードを上書きしたりするリスクを発生させる。
モデルベースセーフガードのようなリスクを軽減するための現在のアプローチは、エージェントの信頼性を高めるが、システムの安全性を保証することはできない。
論文 参考訳(メタデータ) (2026-01-12T21:31:38Z) - PrivacyPAD: A Reinforcement Learning Framework for Dynamic Privacy-Aware Delegation [33.37227619820212]
この問題を解決するために、プライバシPADと呼ばれる新しい強化学習フレームワークを導入する。
我々のフレームワークは、エージェントにテキストチャンクを動的にルーティングするように訓練し、プライバシリークとタスクパフォーマンスのトレードオフを最適にバランスさせるポリシーを学ぶ。
当社のフレームワークは,プライバシ・ユーティリティ・フロンティアにおける新たな最先端を実現する。
論文 参考訳(メタデータ) (2025-10-16T19:38:36Z) - Emergent Coordination in Multi-Agent Language Models [2.504366738288215]
マルチエージェントシステムが高次構造の兆候を示すかどうかをテストするための情報理論フレームワークを提案する。
この情報分解により、マルチエージェントLLMシステムに動的に出現するかどうかを測定することができる。
我々は,エージェントの直接通信を使わずに,単純な推測ゲームを用いた実験に本フレームワークを適用した。
論文 参考訳(メタデータ) (2025-10-05T11:26:41Z) - 1-2-3 Check: Enhancing Contextual Privacy in LLM via Multi-Agent Reasoning [18.751008976082655]
プライバシ推論を専門のサブタスク(抽出,分類)に分解するマルチエージェントフレームワークを導入する。
情報フロートポロジに対して系統的なアブレーションを行い、上流検出がダウンストリームリークにカスケードを間違えた理由を明らかにした。
論文 参考訳(メタデータ) (2025-08-11T06:34:09Z) - AgentOhana: Design Unified Data and Training Pipeline for Effective Agent Learning [98.26836657967162]
textbfAgentOhanaは、さまざまなシナリオにまたがって、異なる環境からエージェントのトラジェクトリを集約する。
AIエージェント用に調整された大規模なアクションモデルである textbfxLAM-v0.1 は、さまざまなベンチマークで例外的なパフォーマンスを示している。
論文 参考訳(メタデータ) (2024-02-23T18:56:26Z) - Learning From Good Trajectories in Offline Multi-Agent Reinforcement
Learning [98.07495732562654]
オフラインマルチエージェント強化学習(MARL)は、事前コンパイルされたデータセットから効果的なマルチエージェントポリシーを学ぶことを目的としている。
オフラインのMARLが学んだエージェントは、しばしばこのランダムなポリシーを継承し、チーム全体のパフォーマンスを脅かす。
この問題に対処するために,共有個人軌道(SIT)と呼ばれる新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-28T18:11:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。