論文の概要: CYCle: Choosing Your Collaborators Wisely to Enhance Collaborative Fairness in Decentralized Learning
- arxiv url: http://arxiv.org/abs/2501.12344v2
- Date: Wed, 01 Oct 2025 12:42:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-02 14:33:21.48913
- Title: CYCle: Choosing Your Collaborators Wisely to Enhance Collaborative Fairness in Decentralized Learning
- Title(参考訳): CYCle: 分散学習におけるコラボレーションの公平性を高めるために、協力者を簡潔に選択する
- Authors: Nurbek Tastan, Samuel Horvath, Karthik Nandakumar,
- Abstract要約: コラボレーション学習(CL)は、複数の参加者が、生データを共有することなく、分散データソース上で機械学習(ML)モデルを共同でトレーニングすることを可能にする。
CLの主な目標は,各参加者に対して期待される精度向上を最大化することにあるが,利得が公平に分散されていることを保証することも重要である。
既存のCL手法の多くは、集中的な調整を必要とし、公正さを見越して利得のみに焦点をあてる。
- 参考スコア(独自算出の注目度): 28.70691568233268
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Collaborative learning (CL) enables multiple participants to jointly train machine learning (ML) models on decentralized data sources without raw data sharing. While the primary goal of CL is to maximize the expected accuracy gain for each participant, it is also important to ensure that the gains are fairly distributed: no client should be negatively impacted, and gains should reflect contributions. Most existing CL methods require central coordination and focus only on gain maximization, overlooking fairness. In this work, we first show that the existing measure of collaborative fairness based on the correlation between accuracy values without and with collaboration has drawbacks because it does not account for negative collaboration gain. We argue that maximizing mean collaboration gain (MCG) while simultaneously minimizing the collaboration gain spread (CGS) is a fairer alternative. Next, we propose the CYCle protocol that enables individual participants in a private decentralized learning (PDL) framework to achieve this objective through a novel reputation scoring method based on gradient alignment between the local cross-entropy and distillation losses. We further extend the CYCle protocol to operate on top of gossip-based decentralized algorithms such as Gossip-SGD. We also theoretically show that CYCle performs better than standard FedAvg in a two-client mean estimation setting under high heterogeneity. Empirical experiments demonstrate the effectiveness of the CYCle protocol to ensure positive and fair collaboration gain for all participants, even in cases where the data distributions of participants are highly skewed.
- Abstract(参考訳): コラボレーション学習(CL)は、複数の参加者が、生データを共有することなく、分散データソース上で機械学習(ML)モデルを共同でトレーニングすることを可能にする。
CLの主な目標は、各参加者が期待する精度向上を最大化することですが、利益がかなり分散していることを保証することも重要です。
既存のCL法の多くは、中心的な調整を必要とし、公正さを乗り越えながら、最大化のみに焦点をあてる。
本研究は, 正解率と正解率との相関に基づく協調フェアネスの既存の尺度が, 負の協調利得を考慮しないため, 欠点があることを最初に示す。
我々は、コラボレーションゲインの最大化(MCG)と同時に、コラボレーションゲインの拡散(CGS)を最小化することが、より公平な代替手段であると主張している。
次に,ローカルクロスエントロピーと蒸留損失の勾配アライメントに基づく評価評価手法により,個人がプライベート分散学習(PDL)フレームワークでこの目標を達成することができるCYCleプロトコルを提案する。
我々はさらにCYCleプロトコルを拡張し、Gossip-SGDのようなゴシップベースの分散アルゴリズム上で動作させる。
また、理論上、CYCleはFedAvgよりも高い不均一性条件下での2サイクル平均推定において優れた性能を示す。
実験的な実験は、CYCleプロトコルの有効性を実証し、参加者のデータ分布が高度に歪んだ場合でも、すべての参加者がポジティブで公平なコラボレーションを得られるようにした。
関連論文リスト
- Heterogeneous Agent Collaborative Reinforcement Learning [52.99813668995983]
不均一エージェント協調強化学習(HACRL)
本稿では,このパラダイムに基づいて,サンプル利用とエージェント間の知識伝達を最大化するために,原則的なロールアウト共有を可能にする協調RLアルゴリズムであるHACPOを提案する。
多様な異種モデルの組み合わせと推論ベンチマークによる実験により、HACPOはすべてのエージェントを一貫して改善し、GSPOを平均3.3%上回り、ロールアウトコストの半分しか使っていないことが示された。
論文 参考訳(メタデータ) (2026-03-03T05:09:49Z) - Hybrid Federated and Split Learning for Privacy Preserving Clinical Prediction and Treatment Optimization [0.0]
共同臨床決定支援は、機関間の患者レベルの記録のプールを防ぐガバナンスとプライバシ規則によって制限されることが多い。
本稿では,フェデレートラーニング(FL)とスプリットラーニング(SL)を組み合わせたハイブリッドプライバシ保存フレームワークを提案する。
論文 参考訳(メタデータ) (2026-02-17T01:57:27Z) - Toward a Sustainable Federated Learning Ecosystem: A Practical Least Core Mechanism for Payoff Allocation [71.86087908416255]
最小コア(LC)概念に基づく配当フレームワークを提案する。
従来の方法とは異なり、LCは最大の不満を最小限に抑えてフェデレーションの凝集を優先する。
統合侵入検知におけるケーススタディは、我々のメカニズムが重要な貢献者や戦略的提携を正しく識別できることを実証している。
論文 参考訳(メタデータ) (2026-02-03T11:10:50Z) - CoRe-Fed: Bridging Collaborative and Representation Fairness via Federated Embedding Distillation [12.707158627881968]
フェデレーテッド・ラーニング(FL)は、分散モデルトレーニングを通じて協調的なインテリジェンスを実現するための重要なアプローチとして登場した。
協調性と表現の公平性を橋渡しする統一最適化フレームワークであるCoRe-Fedを提案する。
我々はCoRe-Fedが最先端のベースラインアルゴリズムよりも公平性とモデル性能を向上させることを示す。
論文 参考訳(メタデータ) (2026-01-31T10:41:00Z) - Learning to Collaborate: An Orchestrated-Decentralized Framework for Peer-to-Peer LLM Federation [0.9231476323484774]
本稿では,分散化を組織化するための新しいフレームワークであるKNEXA-FLを紹介する。
非集約型のCentral Profiler/Matchmakerを採用しており、P2Pコラボレーションを文脈的盗聴問題として定式化している。
実験の結果,KNEXA-FLはP2Pのランダムな協調に対して約50%の精度でPass@1を向上することがわかった。
論文 参考訳(メタデータ) (2026-01-23T19:18:43Z) - Decentralized Dynamic Cooperation of Personalized Models for Federated Continual Learning [50.56947843548702]
フェデレーション型連続学習のための分散動的協調フレームワークを提案する。
顧客は、新しい知識の獲得と事前学習の維持のバランスをとるために、動的な協調学習連合を確立する。
また、協調的・動的平衡を達成するために、マージブロックアルゴリズムと動的協調的進化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-09-28T06:53:23Z) - FedSAC: Dynamic Submodel Allocation for Collaborative Fairness in Federated Learning [46.30755524556465]
協調フェアネスのための動的サブモデルアロケーションを備えた新しいフェデレーション学習フレームワークであるFedSACを提案する。
等価性を理論的に保証したサブモデルアロケーションモジュールを開発する。
3つの公開ベンチマークで行った実験は、FedSACが全てのベースライン法を公平性とモデル精度の両方で上回っていることを示している。
論文 参考訳(メタデータ) (2024-05-28T15:43:29Z) - Emulating Full Participation: An Effective and Fair Client Selection Strategy for Federated Learning [50.060154488277036]
連合学習では、クライアントの選択はモデルの性能と公平性の両方に大きな影響を及ぼす重要な問題である。
2つの指標間の固有の対立に対処し、互いに強化する2つの原則を提案する。
提案手法は,データ分布に基づいてクライアントを選択することにより,この多様性を適応的に向上させ,モデル性能と公平性の両方を改善する。
論文 参考訳(メタデータ) (2024-05-22T12:27:24Z) - Balancing Similarity and Complementarity for Federated Learning [91.65503655796603]
フェデレートラーニング(FL)は、モバイルとIoTシステムにおいてますます重要になっている。
FLの重要な課題の1つは、非i.d.データのような統計的不均一性を管理することである。
FL協調における類似性と相補性のバランスをとる新しいフレームワークである texttFedSaC を導入する。
論文 参考訳(メタデータ) (2024-05-16T08:16:19Z) - Federated Learning Can Find Friends That Are Advantageous [14.993730469216546]
フェデレートラーニング(FL)では、クライアントデータの分散の性質と均一性は、機会と課題の両方を示します。
本稿では,FLトレーニングに参加するクライアントに対して適応的なアグリゲーション重みを割り当てるアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-02-07T17:46:37Z) - How to Collaborate: Towards Maximizing the Generalization Performance in Cross-Silo Federated Learning [11.442808208742758]
フェデレートクラスタリング(FL)は、プライバシを保存する分散学習フレームワークとして、鮮明な注目を集めている。
本研究では、クライアントがFLデータの後、モデルオーナーとなるクロスサイロFLに焦点を当てる。
我々は、より多くのトレーニングデータを持つ他のクライアントと協調することで、クライアントのパフォーマンスを改善できると定式化します。
論文 参考訳(メタデータ) (2024-01-24T05:41:34Z) - Efficient Core-selecting Incentive Mechanism for Data Sharing in
Federated Learning [0.12289361708127873]
フェデレーテッド・ラーニング(Federated Learning)は、参加者のデータを使って改善されたグローバルモデルをトレーニングする分散機械学習システムである。
データを真に入力し、安定した協力を促進するインセンティブメカニズムの確立は、検討すべき重要な問題となっている。
本稿では,サンプリング近似に基づく効率的なコア選択機構を提案する。
論文 参考訳(メタデータ) (2023-09-21T01:47:39Z) - Serverless Federated AUPRC Optimization for Multi-Party Collaborative
Imbalanced Data Mining [119.89373423433804]
有効指標としてAUPRC(Area Under Precision-Recall)を導入した。
サーバーレスのマルチパーティ共同トレーニングは、サーバーノードのボトルネックを避けることで通信コストを削減できる。
本稿では,AUPRCを直接最適化する ServerLess biAsed sTochastic gradiEnt (SLATE) アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-08-06T06:51:32Z) - Collaborative Learning via Prediction Consensus [38.89001892487472]
我々は,協力者の専門知識を活用して,各エージェントの目標が自身のモデルを改善するための協調学習環境を考える。
本研究では, 共分散ラベル付き補助データを利用した蒸留法を提案する。
我々は,協調方式が個々のモデルの性能を大幅に向上させることができることを実証的に実証した。
論文 参考訳(メタデータ) (2023-05-29T14:12:03Z) - Fed-CBS: A Heterogeneity-Aware Client Sampling Mechanism for Federated
Learning via Class-Imbalance Reduction [76.26710990597498]
本研究では,ランダムに選択したクライアントからのグループデータのクラス不均衡が,性能の大幅な低下につながることを示す。
我々のキーとなる観測に基づいて、我々は効率的なクライアントサンプリング機構、すなわちフェデレートクラスバランスサンプリング(Fed-CBS)を設計する。
特に、クラス不均衡の尺度を提案し、その後、同型暗号化を用いてプライバシー保護方式でこの尺度を導出する。
論文 参考訳(メタデータ) (2022-09-30T05:42:56Z) - Semi-supervised Contrastive Learning with Similarity Co-calibration [72.38187308270135]
SsCL(Semi-supervised Contrastive Learning)と呼ばれる新しいトレーニング戦略を提案する。
ssclは、自己教師付き学習におけるよく知られたコントラスト損失と、半教師付き学習におけるクロスエントロピー損失を組み合わせる。
SsCLはより差別的な表現を生じさせ,ショット学習に有益であることを示す。
論文 参考訳(メタデータ) (2021-05-16T09:13:56Z) - Collaborative Fairness in Federated Learning [24.7378023761443]
深層学習のための新しい協調フェアフェデレーションラーニング(CFFL)フレームワークを提案する。
CFFLは参加者に異なるモデルに収束させ、予測性能を損なうことなく公正を達成する。
ベンチマークデータセットの実験では、CFFLは高い公正性を達成し、分散フレームワークに匹敵する精度を提供する。
論文 参考訳(メタデータ) (2020-08-27T14:39:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。