論文の概要: Multi-Level Branched Regularization for Federated Learning
- arxiv url: http://arxiv.org/abs/2207.06936v1
- Date: Thu, 14 Jul 2022 13:59:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-15 14:11:21.760289
- Title: Multi-Level Branched Regularization for Federated Learning
- Title(参考訳): フェデレーション学習のための多レベル分岐正規化
- Authors: Jinkyu Kim, Geeho Kim and Bohyung Han
- Abstract要約: 本稿では,各局所モデルにおける複数の補助的分岐を,複数の異なるレベルで局所的および大域的ワークをグラフトすることで構築する,新しいアーキテクチャ正規化手法を提案する。
従来の手法に比べて精度と効率の点で顕著な性能向上を示す。
- 参考スコア(独自算出の注目度): 46.771459325434535
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A critical challenge of federated learning is data heterogeneity and
imbalance across clients, which leads to inconsistency between local networks
and unstable convergence of global models. To alleviate the limitations, we
propose a novel architectural regularization technique that constructs multiple
auxiliary branches in each local model by grafting local and global subnetworks
at several different levels and that learns the representations of the main
pathway in the local model congruent to the auxiliary hybrid pathways via
online knowledge distillation. The proposed technique is effective to robustify
the global model even in the non-iid setting and is applicable to various
federated learning frameworks conveniently without incurring extra
communication costs. We perform comprehensive empirical studies and demonstrate
remarkable performance gains in terms of accuracy and efficiency compared to
existing methods. The source code is available at our project page.
- Abstract(参考訳): フェデレーション学習の批判的な課題は、データの不均一性とクライアント間の不均衡であり、ローカルネットワーク間の不整合とグローバルモデルの不安定な収束をもたらす。
この制約を緩和するため,我々は,各局所モデルにおける複数の補助分岐を,複数の異なるレベルでグラフトすることで構築し,オンライン知識蒸留による補助ハイブリッド経路に対応する局所モデルにおける主経路の表現を学習する,新しいアーキテクチャ正規化手法を提案する。
提案手法は,非iid設定においてもグローバルモデルの強固化に有効であり,追加の通信コストを伴わずに様々なフェデレーション学習フレームワークに適用できる。
総合的な実証実験を行い,既存の手法と比較して精度と効率の面で顕著な性能向上を示す。
ソースコードはプロジェクトのページから入手できます。
関連論文リスト
- Proximity-based Self-Federated Learning [1.0066310107046081]
本稿では,近接型自己フェデレーション学習という,新しい完全分散型フェデレーション学習戦略を提案する。
従来のアルゴリズムとは異なり、我々の手法は、地理的近接とモデル精度に基づいて、クライアントが近隣ノードとモデルを共有し、調整することを奨励する。
論文 参考訳(メタデータ) (2024-07-17T08:44:45Z) - Federated Learning with Projected Trajectory Regularization [65.6266768678291]
フェデレーション学習は、ローカルデータを共有せずに、分散クライアントから機械学習モデルの共同トレーニングを可能にする。
連合学習における重要な課題の1つは、クライアントにまたがる識別できない分散データを扱うことである。
本稿では,データ問題に対処するための予測軌道正則化(FedPTR)を備えた新しいフェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-22T02:12:08Z) - Generalizable Heterogeneous Federated Cross-Correlation and Instance
Similarity Learning [60.058083574671834]
本稿では,新しいFCCL+,フェデレーション相関と非ターゲット蒸留との類似性学習を提案する。
不均一な問題に対しては、無関係な公開データを通信に活用する。
局所的な更新段階における破滅的な忘れ物として、FCCL+はFederated Non Target Distillationを導入している。
論文 参考訳(メタデータ) (2023-09-28T09:32:27Z) - UNIDEAL: Curriculum Knowledge Distillation Federated Learning [17.817181326740698]
フェデレートラーニング(FL)は、複数のクライアント間で協調学習を可能にする、有望なアプローチとして登場した。
本稿では,ドメイン横断シナリオの課題に対処するための新しいFLアルゴリズムであるUNIを提案する。
この結果から,UNIはモデル精度と通信効率の両面において優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2023-09-16T11:30:29Z) - Rethinking Client Drift in Federated Learning: A Logit Perspective [125.35844582366441]
フェデレートラーニング(FL)は、複数のクライアントが分散した方法で協調的に学習し、プライバシ保護を可能にする。
その結果,局所モデルとグローバルモデルとのロジット差は,モデルが継続的に更新されるにつれて増大することがわかった。
我々はFedCSDと呼ばれる新しいアルゴリズムを提案する。FedCSDは、ローカルモデルとグローバルモデルを調整するためのフェデレーションフレームワークにおけるクラスプロトタイプの類似度蒸留である。
論文 参考訳(メタデータ) (2023-08-20T04:41:01Z) - Personalizing Federated Learning with Over-the-Air Computations [84.8089761800994]
フェデレートされたエッジ学習は、プライバシー保護の方法で無線ネットワークのエッジにインテリジェンスをデプロイする、有望な技術である。
このような設定の下で、複数のクライアントは、エッジサーバの調整の下でグローバルジェネリックモデルを協調的にトレーニングする。
本稿では,アナログオーバー・ザ・エア計算を用いて通信ボトルネックに対処する分散トレーニングパラダイムを提案する。
論文 参考訳(メタデータ) (2023-02-24T08:41:19Z) - CDKT-FL: Cross-Device Knowledge Transfer using Proxy Dataset in Federated Learning [27.84845136697669]
我々は,グローバルモデルとローカルモデル間の知識伝達の程度を研究するために,新しい知識蒸留に基づくアプローチを開発する。
提案手法は局所モデルの大幅な高速化と高いパーソナライズ性能を実現する。
論文 参考訳(メタデータ) (2022-04-04T14:49:19Z) - Edge-assisted Democratized Learning Towards Federated Analytics [67.44078999945722]
本稿では,エッジ支援型民主化学習機構であるEdge-DemLearnの階層的学習構造を示す。
また、Edge-DemLearnを柔軟なモデルトレーニングメカニズムとして検証し、リージョンに分散制御と集約の方法論を構築する。
論文 参考訳(メタデータ) (2020-12-01T11:46:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。