論文の概要: Fed-SE: Federated Self-Evolution for Privacy-Constrained Multi-Environment LLM Agents
- arxiv url: http://arxiv.org/abs/2512.08870v1
- Date: Tue, 09 Dec 2025 18:04:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-10 22:28:08.080048
- Title: Fed-SE: Federated Self-Evolution for Privacy-Constrained Multi-Environment LLM Agents
- Title(参考訳): Fed-SE: プライバシーに制約のあるマルチ環境LDMエージェントのためのフェデレーション自己進化
- Authors: Xiang Chen, Yuling Shi, Qizhen Lan, Yuchao Qiu, Xiaodong Gu,
- Abstract要約: LLMエージェントのためのフェデレート自己進化フレームワークであるFed-SEを提案する。
Fed-SEは、局所的な進化・グローバル集約パラダイムを確立する。
グローバルに、Fed-SEは環境固有のダイナミクスを混乱させる低ランクのサブスペース内で更新を集約する。
- 参考スコア(独自算出の注目度): 12.282703619791162
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: LLM agents are widely deployed in complex interactive tasks, yet privacy constraints often preclude centralized optimization and co-evolution across dynamic environments. While Federated Learning (FL) has proven effective on static datasets, its extension to the open-ended self-evolution of agents remains underexplored. Directly applying standard FL is challenging: heterogeneous tasks and sparse, trajectory-level rewards introduce severe gradient conflicts, destabilizing the global optimization process. To bridge this gap, we propose Fed-SE, a Federated Self-Evolution framework for LLM agents. Fed-SE establishes a local evolution-global aggregation paradigm. Locally, agents employ parameter-efficient fine-tuning on filtered, high-return trajectories to achieve stable gradient updates. Globally, Fed-SE aggregates updates within a low-rank subspace that disentangles environment-specific dynamics, effectively reducing negative transfer across clients. Experiments across five heterogeneous environments demonstrate that Fed-SE improves average task success rates by approximately 18% over federated baselines, validating its effectiveness in robust cross-environment knowledge transfer in privacy-constrained deployments.
- Abstract(参考訳): LLMエージェントは複雑な対話的なタスクに広くデプロイされているが、プライバシの制約は動的環境全体にわたって集中的な最適化と共進化を妨げている。
フェデレートラーニング(FL)は静的データセットに有効であることが証明されているが、エージェントのオープンな自己進化への拡張はいまだ検討されていない。
不均一なタスクとスパース、軌道レベルの報酬は、厳密な勾配の衝突を導入し、グローバルな最適化プロセスを不安定にする。
このギャップを埋めるため,LLMエージェントのためのフェデレート自己進化フレームワークであるFed-SEを提案する。
Fed-SEは、局所的な進化・グローバル集約パラダイムを確立する。
局所的には、エージェントは安定な勾配更新を達成するためにフィルタされた高リターン軌道上でパラメータ効率の微調整を用いる。
グローバルにFed-SEは、環境固有のダイナミクスを混乱させ、クライアント間の負の転送を効果的に削減する低ランクサブスペース内で更新を集約する。
5つの異種環境における実験により、Fed-SEは、フェデレーションベースラインよりも平均タスク成功率を約18%改善し、プライバシに制約されたデプロイメントにおける堅牢なクロス環境知識転送の有効性を検証する。
関連論文リスト
- Alignment Tipping Process: How Self-Evolution Pushes LLM Agents Off the Rails [103.05296856071931]
本稿では,自己進化型大規模言語モデル(LLM)エージェントに特有の,アライメント・ティッピング・プロセス(ATP)を同定する。
ATPは、連続的な相互作用によってエージェントが訓練中に確立されたアライメント制約を放棄し、強化された自己関心の戦略を支持するときに生じる。
実験の結果、アライメントの利点は自己進化の下で急速に低下し、最初は整合性のない状態に収束したモデルであることが判明した。
論文 参考訳(メタデータ) (2025-10-06T14:48:39Z) - Federated Reinforcement Learning in Heterogeneous Environments [9.944647907864255]
本研究では, 局所環境が統計的不均一性を示す, 環境不均一性を伴う連邦強化学習(FRL-EH)フレームワークについて検討する。
このフレームワーク内では、エージェントは、ローカルな軌跡のプライバシーを維持しながら、集合的な経験を集約することで、グローバルなポリシーを共同で学習する。
異質な局所環境とその可塑性摂動におけるロバストな性能を保証する,新たなグローバルな目的関数を提案する。
我々は、期待損失を利用してFedRQを連続的な状態空間を持つ環境に拡張し、状態空間の連続部分集合上の値関数を最小化するという重要な課題に対処する。
論文 参考訳(メタデータ) (2025-07-19T05:06:38Z) - Generalized and Personalized Federated Learning with Foundation Models via Orthogonal Transformations [4.008780119020479]
Federated Learningは、集中的なデータ収集を必要とせずに、分散化されたクライアントやローカルデータを保持するデバイス間でモデルをトレーニングすることを目的としている。
我々は,ブラックボックス基盤モデルを活用した新しいアプローチであるFedOTを紹介する。
FedOTは、さまざまなクライアント間の勾配競合を緩和し、セマンティックな整合性を保持し、実質的なデータの存在下でも堅牢なパフォーマンスを達成する。
論文 参考訳(メタデータ) (2025-05-26T12:18:24Z) - Towards Robust and Efficient Federated Low-Rank Adaptation with Heterogeneous Clients [6.570712059945705]
低ランク適応(LoRA)は解法として提案されているが、連合学習におけるその応用は集約の不一致によって複雑である。
この不一致に対処する既存の手法は、不均一なデータ設定で低いランクでの性能劣化に悩まされることが多い。
LoRA-A$2$を導入し、低いランクと高いデータ不均一性を持つ挑戦的な設定において堅牢性を示す。
論文 参考訳(メタデータ) (2024-10-30T08:48:21Z) - FedEGG: Federated Learning with Explicit Global Guidance [90.04705121816185]
フェデレートラーニング(FL)は、そのプライバシー保護の性質から、多様なアプリケーションにとって大きな可能性を秘めている。
既存の手法は、最適化ベースのクライアント制約、適応的なクライアント選択、事前訓練されたモデルや合成データの使用によってこれらの課題に対処するのに役立つ。
我々はbftextFedEGGを提案する。bftextFedEGGは、よく定義された、容易に収束できる学習タスクを用いて、グローバルガイドタスクを構築する新しいFLアルゴリズムである。
論文 参考訳(メタデータ) (2024-04-18T04:25:21Z) - Federated Natural Policy Gradient and Actor Critic Methods for Multi-task Reinforcement Learning [46.28771270378047]
フェデレート強化学習(RL)は、ローカルデータトラジェクトリを共有することなく、複数の分散エージェントの協調的な意思決定を可能にする。
本研究では,環境の同じ遷移カーネルを共有しながら,各エージェントが異なるタスクに対応する個別の報酬関数を持つマルチタスク設定について考察する。
我々は、分散された方法で全てのエージェントの割引された全報酬の総和を最大化する、世界的な最適政策を学習する。
論文 参考訳(メタデータ) (2023-11-01T00:15:18Z) - Dynamic Regularized Sharpness Aware Minimization in Federated Learning: Approaching Global Consistency and Smooth Landscape [59.841889495864386]
フェデレートラーニング(FL)では、グローバルサーバの協調の下で、ローカルクライアントのクラスタがチェアリングされる。
クライアントは自身のオプティマに過度に適合する傾向にあり、グローバルな目標から非常に逸脱する。
tt Family FedSMOOは、グローバルな目的に対する局所的な最適性を保証するために動的正規化器を採用する。
理論解析により, tt Family FedSMOO は, 低境界一般化による高速$mathcalO (1/T)$収束率を達成することが示された。
論文 参考訳(メタデータ) (2023-05-19T10:47:44Z) - Disentangled Federated Learning for Tackling Attributes Skew via
Invariant Aggregation and Diversity Transferring [104.19414150171472]
属性は、クライアント間の一貫した最適化方向から、現在の連邦学習(FL)フレームワークを歪めます。
本稿では,ドメイン固有属性とクロス不変属性を2つの補足枝に分離するために,非絡み付きフェデレーション学習(DFL)を提案する。
実験により、DFLはSOTA FL法と比較して高い性能、より良い解釈可能性、より高速な収束率でFLを促進することが確認された。
論文 参考訳(メタデータ) (2022-06-14T13:12:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。