論文の概要: Personalized Collaborative Learning with Affinity-Based Variance Reduction
- arxiv url: http://arxiv.org/abs/2510.16232v1
- Date: Fri, 17 Oct 2025 21:49:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 00:56:38.909818
- Title: Personalized Collaborative Learning with Affinity-Based Variance Reduction
- Title(参考訳): Affinity-based Variance Reduction を用いた個人化協調学習
- Authors: Chenyu Zhang, Navid Azizan,
- Abstract要約: 我々は、シームレスな適応性を持つパーソナライズされたソリューションを協調的に学習する異種エージェントのための新しいフレームワークであるパーソナライズされた協調学習(PCL)を提案する。
AffPCLは独立学習におけるサンプルの複雑さを$maxn-1, delta$で減らし、$n$はエージェントの数、$deltain[0,1]$はその不均一性を測定する。
さらに, エージェントが任意の異種エージェントと共同作業しても線形スピードアップが得られ, 高い不均一性体制下でのパーソナライズと協調に関する新たな知見が明らかにされた。
- 参考スコア(独自算出の注目度): 6.504864626522373
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multi-agent learning faces a fundamental tension: leveraging distributed collaboration without sacrificing the personalization needed for diverse agents. This tension intensifies when aiming for full personalization while adapting to unknown heterogeneity levels -- gaining collaborative speedup when agents are similar, without performance degradation when they are different. Embracing the challenge, we propose personalized collaborative learning (PCL), a novel framework for heterogeneous agents to collaboratively learn personalized solutions with seamless adaptivity. Through carefully designed bias correction and importance correction mechanisms, our method AffPCL robustly handles both environment and objective heterogeneity. We prove that AffPCL reduces sample complexity over independent learning by a factor of $\max\{n^{-1}, \delta\}$, where $n$ is the number of agents and $\delta\in[0,1]$ measures their heterogeneity. This affinity-based acceleration automatically interpolates between the linear speedup of federated learning in homogeneous settings and the baseline of independent learning, without requiring prior knowledge of the system. Our analysis further reveals that an agent may obtain linear speedup even by collaborating with arbitrarily dissimilar agents, unveiling new insights into personalization and collaboration in the high heterogeneity regime.
- Abstract(参考訳): 多様なエージェントに必要なパーソナライゼーションを犠牲にすることなく、分散コラボレーションを活用する。
この緊張は、未知の不均一なレベルに適応しながら、完全なパーソナライズを目指す場合、さらに強化される。
この課題を克服し、シームレスな適応性を持つパーソナライズされたソリューションを協調的に学習する異種エージェントのための新しいフレームワークであるパーソナライズされた協調学習(PCL)を提案する。
慎重に設計されたバイアス補正と重要度補正機構により,AffPCLは環境と客観的不均一性の両方を頑健に処理する。
AffPCLは独立学習におけるサンプルの複雑さを$\max\{n^{-1}, \delta\}$で減らし、$n$はエージェントの数、$\delta\in[0,1]$はその不均一性を測定する。
この親和性に基づく加速度は、システムの事前知識を必要とせず、同質な環境下でのフェデレーション学習の線形スピードアップと独立学習のベースラインの間に自動的に補間する。
さらに, エージェントが任意の異種エージェントと共同作業しても線形スピードアップが得られ, 高い不均一性体制下でのパーソナライズと協調に関する新たな知見が明らかにされた。
関連論文リスト
- Emergent Coordination in Multi-Agent Language Models [2.504366738288215]
マルチエージェントシステムが高次構造の兆候を示すかどうかをテストするための情報理論フレームワークを提案する。
この情報分解により、マルチエージェントLLMシステムに動的に出現するかどうかを測定することができる。
我々は,エージェントの直接通信を使わずに,単純な推測ゲームを用いた実験に本フレームワークを適用した。
論文 参考訳(メタデータ) (2025-10-05T11:26:41Z) - DisCo: Reinforcement with Diversity Constraints for Multi-Human Generation [60.741022906593685]
DisCoは、マルチヒューマン世代におけるアイデンティティの多様性を直接最適化する最初のRLベースのフレームワークである。
グループ相対ポリシー最適化によるDisCo微粒フローマッチングモデル。
DiverseHumans Testsetでは、DisCoは98.6のユニークな顔の精度とほぼ完璧なグローバルアイデンティティスプレッドを実現している。
論文 参考訳(メタデータ) (2025-10-01T19:28:51Z) - Adaptive collaboration for online personalized distributed learning with heterogeneous clients [22.507916490976044]
ローカルトレーニングを加速するために, 統計的に異種なクライアントが協力して, オンラインパーソナライズ学習の課題をN$で検討した。
この設定における重要な課題は、導入したバイアスを緩和しながら分散を減らすために、関連する協力者を選択することである。
論文 参考訳(メタデータ) (2025-07-09T13:44:27Z) - Robust Asymmetric Heterogeneous Federated Learning with Corrupted Clients [60.22876915395139]
本稿では、異種・データ破損クライアントをモデルとした頑健な連立学習課題について検討する。
データ破損は、ランダムノイズ、圧縮アーティファクト、現実のデプロイメントにおける環境条件などの要因によって避けられない。
本稿では,これらの問題に対処する新しいロバスト非対称不均一なフェデレート学習フレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-12T09:52:04Z) - Finite-Time Analysis of On-Policy Heterogeneous Federated Reinforcement Learning [8.632943870358627]
フェデレート強化学習(FRL)は、強化学習タスクのサンプル複雑性を低減するための有望なパラダイムとして登場した。
本稿では,線形関数近似を用いた新しいオンライン強化学習手法であるFedSARSAを紹介する。
我々は,FedSARSAが,不均一性のレベルに比例して,すべてのエージェントに対してほぼ最適のポリシーに収束することを示す。
論文 参考訳(メタデータ) (2024-01-27T02:43:45Z) - An Extensible Framework for Open Heterogeneous Collaborative Perception [58.70875361688463]
協調的な知覚は、単一エージェントの知覚の限界を緩和することを目的としている。
本稿では,新しい異種エージェントを協調認識に適応させる方法を提案する。
本稿では,新しい協調認識フレームワークであるHeterogeneous ALliance(HEAL)を提案する。
論文 参考訳(メタデータ) (2024-01-25T05:55:03Z) - Adaptive Federated Learning via New Entropy Approach [14.595709494370372]
Federated Learning (FL) は、分散機械学習フレームワークとして注目されている。
本稿では,不均一クライアント間のパラメータ偏差を軽減するために,entropy理論(FedEnt)に基づく適応型FEDerated Learningアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-03-27T07:57:04Z) - Adaptive Value Decomposition with Greedy Marginal Contribution
Computation for Cooperative Multi-Agent Reinforcement Learning [48.41925886860991]
現実世界の協力はしばしばエージェント間の集中的な調整を必要とする。
単調なユーティリティの単調混合として値関数を学習する従来の方法は、非単調なリターンでタスクを解くことはできない。
非単調な問題に対処するための新しい明示的な信用割当手法を提案する。
論文 参考訳(メタデータ) (2023-02-14T07:23:59Z) - Straggler-Resilient Personalized Federated Learning [55.54344312542944]
フェデレーション学習は、プライバシと通信の制限を尊重しながら、クライアントの大規模なネットワークに分散されたサンプルからのトレーニングモデルを可能にする。
これら2つのハードルを同時に処理する理論的なスピードアップを保証する新しいアルゴリズム手法を開発した。
提案手法は,すべてのクライアントのデータを用いてグローバルな共通表現を見つけ,各クライアントに対してパーソナライズされたソリューションにつながるパラメータの集合を学習するために,表現学習理論からのアイデアに依存している。
論文 参考訳(メタデータ) (2022-06-05T01:14:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。