論文の概要: How to Evaluate Participant Contributions in Decentralized Federated Learning
- arxiv url: http://arxiv.org/abs/2505.23246v2
- Date: Fri, 01 Aug 2025 12:05:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-04 14:06:53.402459
- Title: How to Evaluate Participant Contributions in Decentralized Federated Learning
- Title(参考訳): 分散型フェデレーション学習における参加者貢献の評価方法
- Authors: Honoka Anada, Tatsuya Kaneko, Shinya Takamaeda-Yamazaki,
- Abstract要約: TRIP-Shapleyは分散学習(DFL)のための新しいコントリビューション評価手法である
TRIP-Shapleyは、ラウンドワイドなローカルなコントリビューションの伝播をトレースすることで、クライアントの全体的なコントリビューションを定式化します。
実験によると、TRIP-Shapleyは地道なShapleyの値に十分近く、大規模シナリオにスケーラブルで、不正直なクライアントの存在下では堅牢である。
- 参考スコア(独自算出の注目度): 0.9129240126037851
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) enables multiple clients to collaboratively train machine learning models without sharing local data. In particular, decentralized FL (DFL), where clients exchange models without a central server, has gained attention for mitigating communication bottlenecks. Evaluating participant contributions is crucial in DFL to incentivize active participation and enhance transparency. However, existing contribution evaluation methods for FL assume centralized settings and cannot be applied directly to DFL due to two challenges: the inaccessibility of each client to non-neighboring clients' models, and the necessity to trace how contributions propagate in conjunction with peer-to-peer model exchanges over time. To address these challenges, we propose TRIP-Shapley, a novel contribution evaluation method for DFL. TRIP-Shapley formulates the clients' overall contributions by tracing the propagation of the round-wise local contributions. In this way, TRIP-Shapley accurately reflects the delayed and gradual influence propagation, as well as allowing a lightweight coordinator node to estimate the overall contributions without collecting models, but based solely on locally observable contributions reported by each client. Experiments demonstrate that TRIP-Shapley is sufficiently close to the ground-truth Shapley value, is scalable to large-scale scenarios, and remains robust in the presence of dishonest clients.
- Abstract(参考訳): フェデレーション・ラーニング(FL)は、複数のクライアントがローカルデータを共有せずに機械学習モデルを協調的にトレーニングすることを可能にする。
特に、クライアントが中央サーバなしでモデルを交換する分散FL(DFL)は、通信ボトルネックを軽減するために注目を集めている。
参加者のコントリビューションを評価することは、DFLにとって、積極的な参加の動機付けと透明性の向上に不可欠である。
しかし、既存のFLのコントリビューション評価手法は集中的な設定を前提としており、隣接するクライアントのモデルに各クライアントがアクセスできないことと、ピアツーピアのモデル交換と同時にどのようにコントリビューションが伝播するかを時間とともに追跡する必要があるという2つの課題があるため、DFLに直接適用できない。
これらの課題に対処するために,DFL のための新しいコントリビューション評価手法 TRIP-Shapley を提案する。
TRIP-Shapleyは、ラウンドワイドなローカルなコントリビューションの伝播をトレースすることで、クライアントの全体的なコントリビューションを定式化します。
このように、TRIP-Shapleyは遅延および漸進的な影響伝達を正確に反映し、軽量なコーディネータノードがモデルを集めることなく全体のコントリビューションを見積もることができる。
実験によると、TRIP-Shapleyは地道なShapleyの値に十分近く、大規模シナリオにスケーラブルで、不正直なクライアントの存在下では堅牢である。
関連論文リスト
- Over-the-Air Fair Federated Learning via Multi-Objective Optimization [52.295563400314094]
本稿では,公平なFLモデルを訓練するためのOTA-FFL(Over-the-air Fair Federated Learning Algorithm)を提案する。
OTA-FFLの公正性とロバストな性能に対する優位性を示す実験を行った。
論文 参考訳(メタデータ) (2025-01-06T21:16:51Z) - SemiDFL: A Semi-Supervised Paradigm for Decentralized Federated Learning [12.542161138042632]
分散連合学習(DFL)は,中央サーバに頼らずに,接続されたクライアント間の協調モデルトレーニングを実現する。
DFLに関する既存の作業の多くは、各クライアントがローカルトレーニングに十分なラベル付きデータを持っていることを前提として、教師付き学習に重点を置いている。
そこで本研究では,データ空間とモデル空間のコンセンサスを確立することで,SSLシナリオにおけるDFL性能を向上させる,最初の半教師付きDFL手法であるSemiDFLを提案する。
論文 参考訳(メタデータ) (2024-12-18T08:12:55Z) - UA-PDFL: A Personalized Approach for Decentralized Federated Learning [5.065947993017158]
フェデレートラーニング(Federated Learning, FL)は、データ漏洩なしにグローバルモデルを協調的に学習するように設計された、プライバシ保護機械学習パラダイムである。
この問題を軽減するために、分散統合学習(DFL)が提案され、すべてのクライアントが中央サーバなしでピアツーピア通信を行う。
我々は,DFLにおける非IID課題に対処するため,UA-PDFLという,分散化された分散学習フレームワークを支援する新しい単位表現を提案する。
論文 参考訳(メタデータ) (2024-12-16T11:27:35Z) - TRAIL: Trust-Aware Client Scheduling for Semi-Decentralized Federated Learning [13.144501509175985]
本稿では、クライアントの状態とコントリビューションを評価するTRAILと呼ばれるTRust-Aware clIent scheduLing機構を提案する。
我々は、エッジサーバとクライアントが信頼できないクラスタ内モデルアグリゲーションとクラスタ間モデルコンセンサスを使用して、共有グローバルモデルをトレーニングする半分散FLフレームワークに焦点を当てる。
実世界のデータセットで行われた実験では、TRAILは最先端のベースラインを上回っ、テスト精度が8.7%向上し、トレーニング損失が15.3%減少した。
論文 参考訳(メタデータ) (2024-12-16T05:02:50Z) - FuseFL: One-Shot Federated Learning through the Lens of Causality with Progressive Model Fusion [48.90879664138855]
ワンショットフェデレートラーニング(OFL)は、訓練されたモデルを1回だけ集約することで、FLにおける通信コストを大幅に削減する。
しかし、高度なOFL法の性能は通常のFLよりもはるかに遅れている。
本稿では,FuseFL と呼ばれる,高い性能と低通信・ストレージコストを有する新しい学習手法を提案する。
論文 参考訳(メタデータ) (2024-10-27T09:07:10Z) - Don't Forget What I did?: Assessing Client Contributions in Federated
Learning [9.56869689239781]
Federated Learning(FL)は、複数のクライアントがプライベートデータを公開せずにMLモデルをトレーニングする、コラボレーティブ機械学習(ML)アプローチである。
本研究では,FLContrib と呼ばれる歴史を意識したゲーム理論フレームワークを提案し,クライアントのサブセットがFLトレーニングの各時期に参加する際にクライアントのコントリビューションを評価する。
FLContribを用いて、FLトレーニングにおいてデータ中毒を行う不適切なクライアントを検出する。
論文 参考訳(メタデータ) (2024-03-11T20:39:32Z) - Tunable Soft Prompts are Messengers in Federated Learning [55.924749085481544]
フェデレートラーニング(FL)は、複数の参加者が分散データソースを使用して機械学習モデルを協調的にトレーニングすることを可能にする。
FLにおけるモデルプライバシ保護の欠如は無視できない課題となっている。
そこで本研究では,ソフトプロンプトによって参加者間の情報交換を実現する新しいFLトレーニング手法を提案する。
論文 参考訳(メタデータ) (2023-11-12T11:01:10Z) - Convergence Analysis of Sequential Federated Learning on Heterogeneous Data [5.872735527071425]
連立学習(FL)では、複数のクライアント間で共同トレーニングを行う方法が2つある:i)並列FL(PFL)、i)クライアントが並列にモデルを訓練するFL(SFL)、i)クライアントが逐次的にモデルを訓練するFL(SFL)である。
本稿では,不均一なデータに対するSFLの収束保証がまだ不十分であることを示す。
実験により,SFLはデバイス間設定において極めて不均一なデータ上でPFLより優れることを示した。
論文 参考訳(メタデータ) (2023-11-06T14:48:51Z) - Towards Understanding Generalization and Stability Gaps between Centralized and Decentralized Federated Learning [57.35402286842029]
集中学習は常に分散学習(DFL)よりも一般化されていることを示す。
また、FLにおけるいくつかの一般的な設定について実験を行い、我々の理論解析が実験的な現象と一致し、いくつかの一般的なシナリオおよび実践シナリオにおいて文脈的に有効であることを示す。
論文 参考訳(メタデータ) (2023-10-05T11:09:42Z) - PFL-GAN: When Client Heterogeneity Meets Generative Models in
Personalized Federated Learning [55.930403371398114]
パーソナライズドラーニング(PFL)のための新しいGAN(Generative Adversarial Network)の共有と集約戦略を提案する。
PFL-GANは、異なるシナリオにおけるクライアントの不均一性に対処する。より具体的には、まずクライアント間の類似性を学び、次に重み付けされた協調データアグリゲーションを開発する。
いくつかのよく知られたデータセットに対する厳密な実験による実験結果は、PFL-GANの有効性を示している。
論文 参考訳(メタデータ) (2023-08-23T22:38:35Z) - NeFL: Nested Model Scaling for Federated Learning with System Heterogeneous Clients [44.89061671579694]
フェデレートラーニング(FL)は、データのプライバシを保ちながら分散トレーニングを可能にするが、ストラグラーのスローあるいは無効なクライアントは、トレーニング時間を大幅に短縮し、パフォーマンスを低下させる。
深層ニューラルネットワークを深層スケールと幅ワイドスケーリングの両方を用いてサブモデルに効率的に分割するフレームワークであるネスト付きフェデレーションラーニング(NeFL)を提案する。
NeFLは、特に最低ケースのサブモデルでは、ベースラインアプローチに比べてパフォーマンスが向上する。
論文 参考訳(メタデータ) (2023-08-15T13:29:14Z) - Decentralized Federated Learning: A Survey and Perspective [45.81975053649379]
分散FL(DFL)は、中央サーバーを必要としない分散ネットワークアーキテクチャである。
DFLはクライアント間の直接通信を可能にし、通信リソースの大幅な節約をもたらす。
論文 参考訳(メタデータ) (2023-06-02T15:12:58Z) - Towards More Suitable Personalization in Federated Learning via
Decentralized Partial Model Training [67.67045085186797]
既存のシステムのほとんどは、中央のFLサーバが失敗した場合、大きな通信負荷に直面しなければならない。
共有パラメータと個人パラメータを交互に更新することで、ディープモデルの「右」をパーソナライズする。
共有パラメータアグリゲーションプロセスをさらに促進するために、ローカルシャープネス最小化を統合するDFedを提案する。
論文 参考訳(メタデータ) (2023-05-24T13:52:18Z) - DeFL: Decentralized Weight Aggregation for Cross-silo Federated Learning [2.43923223501858]
フェデレートラーニング(FL)は、プライバシ保護機械学習(ML)の新たなパラダイムである。
クロスサイロFLのための分散重み集約フレームワークであるDeFLを提案する。
DeFLは各ノードの重みを集約することで中央サーバを排除し、現在のトレーニングラウンドのみの重みはすべてのノード間で維持および同期される。
論文 参考訳(メタデータ) (2022-08-01T13:36:49Z) - pFL-Bench: A Comprehensive Benchmark for Personalized Federated Learning [42.819532536636835]
そこで我々は,pFL ベンチマーク pFL-Bench を提案し,迅速な再現性,標準化,徹底的な pFL 評価を行った。
提案するベンチマークには、統一されたデータパーティションと現実的な異種設定を備えた、多様なアプリケーションドメインの10以上のデータセットが含まれている。
我々は、最先端のpFL手法の利点と可能性を強調し、pFL-BenchがさらなるpFL研究と幅広い応用を可能にすることを期待する。
論文 参考訳(メタデータ) (2022-06-08T02:51:59Z) - DisPFL: Towards Communication-Efficient Personalized Federated Learning
via Decentralized Sparse Training [84.81043932706375]
本稿では,分散型(ピアツーピア)通信プロトコルであるDis-PFLにおいて,新たな個人化フェデレーション学習フレームワークを提案する。
Dis-PFLはパーソナライズされたスパースマスクを使用して、エッジ上のスパースローカルモデルをカスタマイズする。
本手法は,計算複雑性の異なる異種ローカルクライアントに容易に適応できることを実証する。
論文 参考訳(メタデータ) (2022-06-01T02:20:57Z) - To Federate or Not To Federate: Incentivizing Client Participation in
Federated Learning [22.3101738137465]
フェデレートラーニング(FL)は、共通の機械学習モデルをトレーニングしようとするクライアントのグループ間のコラボレーションを促進する。
本稿では,グローバルモデルにインセンティブを与えるクライアントの割合を明示的に最大化する,IncFLと呼ばれるアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-05-30T04:03:31Z) - Achieving Personalized Federated Learning with Sparse Local Models [75.76854544460981]
フェデレートラーニング(FL)は異種分散データに対して脆弱である。
この問題に対処するため、個人ごとに専用のローカルモデルを作成するためにパーソナライズされたFL(PFL)が提案された。
既存のPFLソリューションは、異なるモデルアーキテクチャに対する不満足な一般化を示すか、あるいは膨大な余分な計算とメモリを犠牲にするかのどちらかである。
我々は、パーソナライズされたスパースマスクを用いて、エッジ上のスパースローカルモデルをカスタマイズする新しいPFLスキームFedSpaを提案する。
論文 参考訳(メタデータ) (2022-01-27T08:43:11Z) - GTG-Shapley: Efficient and Accurate Participant Contribution Evaluation
in Federated Learning [25.44023017628766]
Federated Learning(FL)は、コラボレーティブ機械学習とデータのプライバシ保護のギャップを埋めるものだ。
個人データを公開せずに最終FLモデルの性能に対する参加者の貢献を適切に評価することが不可欠である。
本稿では,この課題に対処するためのガイドトラニケーションのグラディエント・シェープ手法を提案する。
論文 参考訳(メタデータ) (2021-09-05T12:17:00Z) - Blockchain Assisted Decentralized Federated Learning (BLADE-FL):
Performance Analysis and Resource Allocation [119.19061102064497]
ブロックチェーンをFL、すなわちブロックチェーン支援分散学習(BLADE-FL)に統合することで、分散FLフレームワークを提案する。
提案されたBLADE-FLのラウンドでは、各クライアントはトレーニング済みモデルを他のクライアントにブロードキャストし、受信したモデルに基づいてブロックを生成し、次のラウンドのローカルトレーニングの前に生成されたブロックからモデルを集約します。
遅延クライアントがblade-flの学習性能に与える影響を調査し,最適なk,学習パラメータ,遅延クライアントの割合の関係を特徴付ける。
論文 参考訳(メタデータ) (2021-01-18T07:19:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。