論文の概要: Communication-Efficient Robust Federated Learning with Noisy Labels
- arxiv url: http://arxiv.org/abs/2206.05558v1
- Date: Sat, 11 Jun 2022 16:21:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-19 08:09:33.034933
- Title: Communication-Efficient Robust Federated Learning with Noisy Labels
- Title(参考訳): 雑音ラベルを用いたコミュニケーション効率のよいロバストフェデレーション学習
- Authors: Junyi Li, Jian Pei, Heng Huang
- Abstract要約: フェデレーテッド・ラーニング(FL)は、分散した位置データの上で、将来性のあるプライバシ保護機械学習パラダイムである。
FLにおける雑音ラベルの効果を緩和する学習に基づく再重み付け手法を提案する。
提案手法は,複数の実世界のデータセットにおいて,各種ベースラインと比較して優れた性能を示した。
- 参考スコア(独自算出の注目度): 144.31995882209932
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning (FL) is a promising privacy-preserving machine learning
paradigm over distributed located data. In FL, the data is kept locally by each
user. This protects the user privacy, but also makes the server difficult to
verify data quality, especially if the data are correctly labeled. Training
with corrupted labels is harmful to the federated learning task; however,
little attention has been paid to FL in the case of label noise. In this paper,
we focus on this problem and propose a learning-based reweighting approach to
mitigate the effect of noisy labels in FL. More precisely, we tuned a weight
for each training sample such that the learned model has optimal generalization
performance over a validation set. More formally, the process can be formulated
as a Federated Bilevel Optimization problem. Bilevel optimization problem is a
type of optimization problem with two levels of entangled problems. The
non-distributed bilevel problems have witnessed notable progress recently with
new efficient algorithms. However, solving bilevel optimization problems under
the Federated Learning setting is under-investigated. We identify that the high
communication cost in hypergradient evaluation is the major bottleneck. So we
propose \textit{Comm-FedBiO} to solve the general Federated Bilevel
Optimization problems; more specifically, we propose two
communication-efficient subroutines to estimate the hypergradient. Convergence
analysis of the proposed algorithms is also provided. Finally, we apply the
proposed algorithms to solve the noisy label problem. Our approach has shown
superior performance on several real-world datasets compared to various
baselines.
- Abstract(参考訳): フェデレーテッド・ラーニング(FL)は、分散した位置データの上で、将来性のあるプライバシ保護機械学習パラダイムである。
FLでは、データは各ユーザがローカルに保持する。
これはユーザーのプライバシーを保護するが、特にデータが正しくラベル付けされている場合、サーバはデータ品質の検証を難しくする。
劣化ラベルを用いたトレーニングは,連合学習タスクに有害であるが,ラベルノイズの場合,flにはほとんど注意が払われていない。
本稿では,この問題に焦点をあて,FLにおける雑音ラベルの効果を緩和する学習ベース再重み付け手法を提案する。
より正確には、学習したモデルが検証セットよりも最適な一般化性能を持つように、各トレーニングサンプルに重みをチューニングした。
より正式には、このプロセスはFederated Bilevel Optimization問題として定式化することができる。
双レベル最適化問題は、2段階の絡み合った問題を持つ最適化問題の一種である。
非分散二レベル問題は最近、新しい効率的なアルゴリズムで顕著に進歩している。
しかし、フェデレーテッド・ラーニング・セッティングの下での双レベル最適化問題の解決は未検討である。
我々は,高次評価における通信コストが大きなボトルネックであることを示す。
そこで本研究では,一般の2レベル最適化問題を解くために,<textit{comm-fedbio}>を提案する。
また,提案アルゴリズムの収束解析を行った。
最後に,提案アルゴリズムを雑音ラベル問題の解法に適用する。
提案手法は,複数の実世界のデータセットにおいて,各種ベースラインと比較して優れた性能を示した。
関連論文リスト
- A Primal-Dual-Assisted Penalty Approach to Bilevel Optimization with Coupled Constraints [66.61399765513383]
We developed a BLOCC algorithm to tackle BiLevel Optimization problems with Coupled Constraints。
2つのよく知られた実世界のアプリケーションでその効果を実証する。
論文 参考訳(メタデータ) (2024-06-14T15:59:36Z) - Communication Efficient and Provable Federated Unlearning [43.178460522012934]
我々は、フェデレーション・アンラーニング(フェデレーション・アンラーニング)という、特定のクライアントやデータポイントが、フェデレーション・ラーニング(FL)を通じて学習したグローバルモデルに与える影響をなくすための新しい問題について研究する。
この問題は、忘れられる権利とFLのプライバシー問題によって引き起こされる。
我々は,テキストコミュニケーション効率とテキストテキサクト・アンラーニング性という2つの重要な基準を満たす,正確な非ラーニングのための新しいフレームワークを導入する。
論文 参考訳(メタデータ) (2024-01-19T20:35:02Z) - Communication-Efficient Federated Bilevel Optimization with Local and
Global Lower Level Problems [118.00379425831566]
我々はFedBiOAccという通信効率の高いアルゴリズムを提案する。
我々は、FedBiOAcc-Localがこの種の問題に対して同じ速度で収束していることを証明する。
実験結果から,アルゴリズムの性能が向上した。
論文 参考訳(メタデータ) (2023-02-13T21:28:53Z) - Asynchronous Distributed Bilevel Optimization [20.074079852690048]
本稿では,双方向最適化問題に対処するため,非同期分散双レベル(ADBO)アルゴリズムを提案する。
ADBOが$epsilon$-定常点を得る複雑さは$mathcalO(frac1epsilon 2)$によって上界される。
論文 参考訳(メタデータ) (2022-12-20T07:44:48Z) - Fast Adaptive Federated Bilevel Optimization [14.579475552088692]
本稿では,分散二レベル最適化問題の解法として,適応型二レベル最適化アルゴリズム(AdaFBiO)を提案する。
AdaFBiOは、統一適応行列を用いて、様々な適応学習率を柔軟に組み込んで、ULおよびLL問題の変数を更新する。
AdaFBiOアルゴリズムの収束解析フレームワークを提供し、$tildeO(epsilon-3)$の複雑さと$tildeO(epsilon-2)$のコミュニケーション複雑さのサンプルが必要であることを証明した。
論文 参考訳(メタデータ) (2022-11-02T13:55:47Z) - Local Stochastic Bilevel Optimization with Momentum-Based Variance
Reduction [104.41634756395545]
具体的には、まず、決定論的勾配に基づくアルゴリズムであるFedBiOを提案する。
FedBiOの複雑性は$O(epsilon-1.5)$である。
本アルゴリズムは数値実験において,他のベースラインと比較して優れた性能を示す。
論文 参考訳(メタデータ) (2022-05-03T16:40:22Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z) - Enhanced Bilevel Optimization via Bregman Distance [104.96004056928474]
本稿では,Bregman Bregman関数に基づく二段階最適化手法を提案する。
また,分散還元法によるSBiO-BreD法(ASBiO-BreD)の高速化版も提案する。
論文 参考訳(メタデータ) (2021-07-26T16:18:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。