論文の概要: S-VOTE: Similarity-based Voting for Client Selection in Decentralized Federated Learning
- arxiv url: http://arxiv.org/abs/2501.19279v1
- Date: Fri, 31 Jan 2025 16:43:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-03 13:58:12.795075
- Title: S-VOTE: Similarity-based Voting for Client Selection in Decentralized Federated Learning
- Title(参考訳): S-VOTE:分散学習におけるクライアント選択のための類似性に基づく投票
- Authors: Pedro Miguel Sánchez Sánchez, Enrique Tomás Martínez Beltrán, Chao Feng, Gérôme Bovet, Gregorio Martínez Pérez, Alberto Huertas Celdrán,
- Abstract要約: Decentralized Federated Learning (DFL)は、中央サーバに頼ることなく、協調的なプライバシ保護モデルトレーニングを可能にする。
本研究では、異種環境におけるDFL問題に対処するS-VOTEを提案する。
- 参考スコア(独自算出の注目度): 10.326889154205157
- License:
- Abstract: Decentralized Federated Learning (DFL) enables collaborative, privacy-preserving model training without relying on a central server. This decentralized approach reduces bottlenecks and eliminates single points of failure, enhancing scalability and resilience. However, DFL also introduces challenges such as suboptimal models with non-IID data distributions, increased communication overhead, and resource usage. Thus, this work proposes S-VOTE, a voting-based client selection mechanism that optimizes resource usage and enhances model performance in federations with non-IID data conditions. S-VOTE considers an adaptive strategy for spontaneous local training that addresses participation imbalance, allowing underutilized clients to contribute without significantly increasing resource costs. Extensive experiments on benchmark datasets demonstrate the S-VOTE effectiveness. More in detail, it achieves lower communication costs by up to 21%, 4-6% faster convergence, and improves local performance by 9-17% compared to baseline methods in some configurations, all while achieving a 14-24% energy consumption reduction. These results highlight the potential of S-VOTE to address DFL challenges in heterogeneous environments.
- Abstract(参考訳): Decentralized Federated Learning (DFL)は、中央サーバに頼ることなく、協調的なプライバシ保護モデルトレーニングを可能にする。
この分散されたアプローチはボトルネックを減らし、単一障害点を排除し、スケーラビリティとレジリエンスを向上する。
しかし、DFLは、非IIDデータ分散を伴う最適化モデル、通信オーバーヘッドの増大、リソース使用量の増加といった課題も導入している。
そこで本研究では,資源利用を最適化し,非IIDデータ条件下でのフェデレーションにおけるモデル性能を向上させる投票ベースのクライアント選択機構であるS-VOTEを提案する。
S-VOTEは、参加不均衡に対処し、未使用のクライアントがリソースコストを大幅に増加させることなく貢献できる自発的なローカルトレーニングの適応戦略を考える。
ベンチマークデータセットに関する大規模な実験は、S-VOTEの有効性を示す。
より詳しくは、通信コストを最大で21%、コンバージェンスを4-6%向上させ、一部の構成ではベースライン方式に比べて局所的な性能を9-17%向上させ、エネルギー消費の14-24%削減を実現している。
これらの結果は、異種環境におけるDFL課題に対処するS-VOTEの可能性を強調している。
関連論文リスト
- PFedDST: Personalized Federated Learning with Decentralized Selection Training [8.21688083335571]
本稿ではPFedDST(Personalized Federated Learning with Decentralized Selection Training)フレームワークを紹介する。
PFedDSTは、包括的なコミュニケーションスコアに基づいて、デバイスが戦略的に評価し、ピアを選択することによって、モデルトレーニングを強化する。
実験の結果,PFedDSTはモデル精度を向上するだけでなく,収束を加速することがわかった。
論文 参考訳(メタデータ) (2025-02-11T18:25:48Z) - UA-PDFL: A Personalized Approach for Decentralized Federated Learning [5.065947993017158]
フェデレートラーニング(Federated Learning, FL)は、データ漏洩なしにグローバルモデルを協調的に学習するように設計された、プライバシ保護機械学習パラダイムである。
この問題を軽減するために、分散統合学習(DFL)が提案され、すべてのクライアントが中央サーバなしでピアツーピア通信を行う。
我々は,DFLにおける非IID課題に対処するため,UA-PDFLという,分散化された分散学習フレームワークを支援する新しい単位表現を提案する。
論文 参考訳(メタデータ) (2024-12-16T11:27:35Z) - NebulaFL: Effective Asynchronous Federated Learning for JointCloud Computing [21.902246133851506]
本稿では,複数クラウド間の協調モデルトレーニングのための非同期FL手法NebulaFLを提案する。
実験の結果、最先端のFL法と比較して、NebulaFLは最大5.71%の精度向上を達成できることがわかった。
論文 参考訳(メタデータ) (2024-12-06T09:02:09Z) - SCALE: Self-regulated Clustered federAted LEarning in a Homogeneous Environment [4.925906256430176]
フェデレートラーニング(FL)は、ユーザのプライバシを維持しながら、分散機械学習を実現するための変革的なアプローチとして登場した。
本稿では,エッジサーバへの依存を排除し,これらの制約を克服する新しいFL手法を提案する。
論文 参考訳(メタデータ) (2024-07-25T20:42:16Z) - Federated Learning of Large Language Models with Parameter-Efficient
Prompt Tuning and Adaptive Optimization [71.87335804334616]
フェデレートラーニング(FL)は、分散データとの協調モデルトレーニングを可能にする、有望なパラダイムである。
LLM(Large Language Models)のトレーニングプロセスは一般的に重要なパラメータの更新を引き起こす。
本稿では,性能と効率を同時に向上する効率的な部分的プロンプトチューニング手法を提案する。
論文 参考訳(メタデータ) (2023-10-23T16:37:59Z) - Adaptive Resource Allocation for Virtualized Base Stations in O-RAN with Online Learning [55.08287089554127]
基地局(vBS)を備えたオープンラジオアクセスネットワークシステムは、柔軟性の向上、コスト削減、ベンダーの多様性、相互運用性のメリットを提供する。
本研究では,予期せぬ「混み合う」環境下であっても,効率的なスループットとvBSエネルギー消費のバランスをとるオンライン学習アルゴリズムを提案する。
提案手法は, 課題のある環境においても, 平均最適性ギャップをゼロにすることで, サブ線形後悔を実現する。
論文 参考訳(メタデータ) (2023-09-04T17:30:21Z) - Analysis and Optimization of Wireless Federated Learning with Data
Heterogeneity [72.85248553787538]
本稿では、データの不均一性を考慮した無線FLの性能解析と最適化と、無線リソース割り当てについて述べる。
ロス関数の最小化問題を、長期エネルギー消費と遅延の制約の下で定式化し、クライアントスケジューリング、リソース割り当て、ローカルトレーニングエポック数(CRE)を共同で最適化する。
実世界のデータセットの実験により、提案アルゴリズムは学習精度とエネルギー消費の点で他のベンチマークよりも優れていることが示された。
論文 参考訳(メタデータ) (2023-08-04T04:18:01Z) - Time-sensitive Learning for Heterogeneous Federated Edge Intelligence [52.83633954857744]
フェデレーションエッジインテリジェンス(FEI)システムにおけるリアルタイム機械学習について検討する。
FEIシステムは異種通信と計算資源分布を示す。
本稿では,共有MLモデルの協調学習における全体の実行時間を最小化するために,時間依存型フェデレーションラーニング(TS-FL)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-01-26T08:13:22Z) - Fed-CBS: A Heterogeneity-Aware Client Sampling Mechanism for Federated
Learning via Class-Imbalance Reduction [76.26710990597498]
本研究では,ランダムに選択したクライアントからのグループデータのクラス不均衡が,性能の大幅な低下につながることを示す。
我々のキーとなる観測に基づいて、我々は効率的なクライアントサンプリング機構、すなわちフェデレートクラスバランスサンプリング(Fed-CBS)を設計する。
特に、クラス不均衡の尺度を提案し、その後、同型暗号化を用いてプライバシー保護方式でこの尺度を導出する。
論文 参考訳(メタデータ) (2022-09-30T05:42:56Z) - Energy-Aware Edge Association for Cluster-based Personalized Federated
Learning [2.3262774900834606]
無線ネットワーク上のフェデレートラーニングは、プライバシ保存モデルトレーニングのために、ネットワークエッジにおけるユビキタスインテリジェンスを活用することによって、データ意識のサービスを可能にする。
我々は、類似した好みのユーザデバイスをグループ化するクラスタ化フェデレーション学習を提案し、各クラスタにパーソナライズされたモデルを提供する。
モデル精度、通信資源割り当て、エネルギー消費を共同で考慮し、精度-コストトレードオフ最適化問題を定式化する。
論文 参考訳(メタデータ) (2022-02-06T07:58:41Z) - Dynamic Attention-based Communication-Efficient Federated Learning [85.18941440826309]
フェデレートラーニング(FL)は、グローバル機械学習モデルをトレーニングするためのソリューションを提供する。
FLは、クライアントデータの分散が非IIDであるときに性能劣化に悩まされる。
本稿では,この劣化に対処するために,新しい適応トレーニングアルゴリズムであるtextttAdaFL$を提案する。
論文 参考訳(メタデータ) (2021-08-12T14:18:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。