論文の概要: Adaptive Decentralized Federated Learning for Robust Optimization
- arxiv url: http://arxiv.org/abs/2512.02852v1
- Date: Tue, 02 Dec 2025 15:09:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-03 21:04:45.941688
- Title: Adaptive Decentralized Federated Learning for Robust Optimization
- Title(参考訳): ロバスト最適化のための適応型分散フェデレーション学習
- Authors: Shuyuan Wu, Feifei Wang, Yuan Gao, Hansheng Wang,
- Abstract要約: 我々は、ロバストな推定のための新しい適応型DFL (aDFL) アプローチを開発した。
疑わしいクライアントに小さなレートを割り当て、通常のクライアントにより大きなレートを割り当てることにより、aDFLはグローバルモデルに対する異常なクライアントの負の影響を軽減します。
- 参考スコア(独自算出の注目度): 16.114545576128247
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In decentralized federated learning (DFL), the presence of abnormal clients, often caused by noisy or poisoned data, can significantly disrupt the learning process and degrade the overall robustness of the model. Previous methods on this issue often require a sufficiently large number of normal neighboring clients or prior knowledge of reliable clients, which reduces the practical applicability of DFL. To address these limitations, we develop here a novel adaptive DFL (aDFL) approach for robust estimation. The key idea is to adaptively adjust the learning rates of clients. By assigning smaller rates to suspicious clients and larger rates to normal clients, aDFL mitigates the negative impact of abnormal clients on the global model in a fully adaptive way. Our theory does not put any stringent conditions on neighboring nodes and requires no prior knowledge. A rigorous convergence analysis is provided to guarantee the oracle property of aDFL. Extensive numerical experiments demonstrate the superior performance of the aDFL method.
- Abstract(参考訳): 分散化された連合学習(DFL)では、しばしばノイズや有毒なデータによって引き起こされる異常なクライアントの存在が学習過程を著しく破壊し、モデルの全体的な堅牢性を低下させる。
この問題に対する従来の手法では、十分に多くの近隣のクライアントや、信頼できるクライアントの事前知識が必要であり、DFLの実践的適用性を低下させる。
これらの制約に対処するため、我々はロバストな推定のための新しい適応DFL (aDFL) アプローチを開発した。
鍵となるアイデアは、クライアントの学習率を適応的に調整することだ。
疑わしいクライアントに小さなレートを割り当て、通常のクライアントにより大きなレートを割り当てることにより、ADFLはグローバルモデルに対する異常なクライアントの負の影響を完全に適応的に軽減する。
我々の理論は、隣接するノードに厳密な条件を課しておらず、事前の知識を必要としない。
厳密な収束解析を行い、aDFLのオラクル特性を保証する。
大規模な数値実験により,aDFL法の性能が向上した。
関連論文リスト
- Client-Centric Federated Adaptive Optimization [78.30827455292827]
Federated Learning(FL)は、クライアントが独自のデータをプライベートに保ちながら、協調的にモデルをトレーニングする分散学習パラダイムである。
本稿では,新しいフェデレーション最適化手法のクラスであるフェデレーション中心適応最適化を提案する。
論文 参考訳(メタデータ) (2025-01-17T04:00:50Z) - FedMAP: Personalised Federated Learning for Real Large-Scale Healthcare Systems [14.378330471182586]
フェデレーテッド・ラーニング(FL)は、データのプライバシを保護しながら、医療現場での機械学習を可能にすることを約束する。
我々は,局所的な最大値(MAP)推定による統計的不均一性に対処するパーソナライズされたFLフレームワークであるFedMAPを紹介する。
局所トレーニング,FedAvg,PFL法を3つの大規模臨床データセットで比較検討した。
論文 参考訳(メタデータ) (2024-05-29T11:28:06Z) - Client Orchestration and Cost-Efficient Joint Optimization for
NOMA-Enabled Hierarchical Federated Learning [55.49099125128281]
半同期クラウドモデルアグリゲーションの下で非直交多重アクセス(NOMA)を実現するHFLシステムを提案する。
提案手法は,HFLの性能改善と総コスト削減に関するベンチマークよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-11-03T13:34:44Z) - SemiSFL: Split Federated Learning on Unlabeled and Non-IID Data [34.49090830845118]
フェデレートラーニング(FL)は、複数のクライアントがネットワークエッジでプライベートデータ上で機械学習モデルを協調的にトレーニングできるようにするためのものだ。
クラスタリング正規化を取り入れて,ラベルなしおよび非IIDクライアントデータでSFLを実行する,Semi-supervised SFLシステムを提案する。
本システムは,訓練時間の3.8倍の高速化を実現し,目標精度を達成しつつ通信コストを約70.3%削減し,非IIDシナリオで最大5.8%の精度向上を実現する。
論文 参考訳(メタデータ) (2023-07-29T02:35:37Z) - Confidence-aware Personalized Federated Learning via Variational
Expectation Maximization [34.354154518009956]
パーソナライズド・フェデレーション・ラーニング(PFL)のための新しいフレームワークを提案する。
PFLは、クライアント間で共有モデルをトレーニングする分散学習スキームである。
階層的モデリングと変分推論に基づくPFLの新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-21T20:12:27Z) - Personalized Federated Learning under Mixture of Distributions [98.25444470990107]
本稿では,ガウス混合モデル(GMM)を用いたPFL(Personalized Federated Learning)を提案する。
FedGMMはオーバーヘッドを最小限に抑え、新しいクライアントに適応する付加的なアドバンテージを持ち、不確実な定量化を可能にします。
PFL分類と新しいサンプル検出の両方において, 合成データセットとベンチマークデータセットの実証評価により, 提案手法の優れた性能を示した。
論文 参考訳(メタデータ) (2023-05-01T20:04:46Z) - AdaBest: Minimizing Client Drift in Federated Learning via Adaptive Bias
Estimation [12.62716075696359]
フェデレートラーニング(FL)では、多くのクライアントやデバイスが協力して、データを共有せずにモデルをトレーニングします。
このドリフトを推定・除去するために、近年FL最適化に分散低減技術が組み込まれている。
本稿では,クライアント間のドリフトを正確に推定する適応アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-04-27T20:04:24Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - No One Left Behind: Inclusive Federated Learning over Heterogeneous
Devices [79.16481453598266]
この問題に対処するクライアント包摂的フェデレーション学習手法であるInclusiveFLを提案する。
InclusiveFLの中核となる考え方は、異なるサイズのモデルを異なる計算能力を持つクライアントに割り当てることである。
また,異なる大きさの複数の局所モデル間で知識を共有する効果的な手法を提案する。
論文 参考訳(メタデータ) (2022-02-16T13:03:27Z) - Blockchain Assisted Decentralized Federated Learning (BLADE-FL):
Performance Analysis and Resource Allocation [119.19061102064497]
ブロックチェーンをFL、すなわちブロックチェーン支援分散学習(BLADE-FL)に統合することで、分散FLフレームワークを提案する。
提案されたBLADE-FLのラウンドでは、各クライアントはトレーニング済みモデルを他のクライアントにブロードキャストし、受信したモデルに基づいてブロックを生成し、次のラウンドのローカルトレーニングの前に生成されたブロックからモデルを集約します。
遅延クライアントがblade-flの学習性能に与える影響を調査し,最適なk,学習パラメータ,遅延クライアントの割合の関係を特徴付ける。
論文 参考訳(メタデータ) (2021-01-18T07:19:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。