論文の概要: A Survey on Class Imbalance in Federated Learning
- arxiv url: http://arxiv.org/abs/2303.11673v1
- Date: Tue, 21 Mar 2023 08:34:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-22 16:03:01.588076
- Title: A Survey on Class Imbalance in Federated Learning
- Title(参考訳): フェデレーション学習における授業不均衡に関する調査
- Authors: Jing Zhang, Chuanwen Li, Jianzgong Qi, Jiayuan He
- Abstract要約: フェデレーション学習は、ネットワーク内の複数のクライアントデバイスが、クライアントのデータを直接露出することなく、機械学習モデルを共同でトレーニングすることを可能にする。
連合学習で訓練されたモデルは通常、標準集中学習モードで訓練されたモデルよりもパフォーマンスが悪いことが判明した。
- 参考スコア(独自算出の注目度): 6.632451878730774
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning, which allows multiple client devices in a network to
jointly train a machine learning model without direct exposure of clients'
data, is an emerging distributed learning technique due to its nature of
privacy preservation. However, it has been found that models trained with
federated learning usually have worse performance than their counterparts
trained in the standard centralized learning mode, especially when the training
data is imbalanced. In the context of federated learning, data imbalance may
occur either locally one one client device, or globally across many devices.
The complexity of different types of data imbalance has posed challenges to the
development of federated learning technique, especially considering the need of
relieving data imbalance issue and preserving data privacy at the same time.
Therefore, in the literature, many attempts have been made to handle class
imbalance in federated learning. In this paper, we present a detailed review of
recent advancements along this line. We first introduce various types of class
imbalance in federated learning, after which we review existing methods for
estimating the extent of class imbalance without the need of knowing the actual
data to preserve data privacy. After that, we discuss existing methods for
handling class imbalance in FL, where the advantages and disadvantages of the
these approaches are discussed. We also summarize common evaluation metrics for
class imbalanced tasks, and point out potential future directions.
- Abstract(参考訳): ネットワーク内の複数のクライアントデバイスが、クライアントのデータを直接露光することなく、機械学習モデルを共同でトレーニングできるフェデレーション学習は、プライバシ保護の性質上、新たな分散学習技術である。
しかし、連合学習で訓練されたモデルは、通常、標準集中学習モードで訓練されたモデルよりも、特にトレーニングデータが不均衡である場合には、パフォーマンスが悪くなることが判明している。
フェデレート学習の文脈では、データ不均衡はローカルに1つのクライアントデバイス、または多くのデバイスで発生する。
異なるタイプのデータ不均衡の複雑さは、特にデータの不均衡を軽減し、データのプライバシを同時に保持する必要性を考慮して、フェデレーション付き学習技術の発展に課題を引き起こしている。
それゆえ、文学では連帯学習におけるクラス不均衡に対処するために多くの試みがなされている。
本稿では,この路線の最近の進歩を概観する。
まず,フェデレーション学習におけるクラス不均衡について紹介する。その後,データプライバシを維持するために実際のデータを知ることなくクラス不均衡の程度を推定する既存の手法について検討する。
その後、flにおけるクラス不均衡を扱う既存の手法について、これらのアプローチの利点と欠点について議論する。
また,クラス不均衡タスクに対する共通評価指標を要約し,今後の方向性を指摘する。
関連論文リスト
- On Homomorphic Encryption Based Strategies for Class Imbalance in Federated Learning [4.322339935902437]
トレーニングデータセットにおけるクラス不均衡は、機械学習モデルにおけるバイアスと一般化の欠如につながる可能性がある。
フェデレート学習におけるグローバルクラス不均衡に関連する問題に対処するプライバシー保護フレームワークであるFLICKERを提案する。
論文 参考訳(メタデータ) (2024-10-28T16:35:40Z) - Update Selective Parameters: Federated Machine Unlearning Based on Model Explanation [46.86767774669831]
モデル説明の概念に基づく、より効率的で効率的なフェデレーション・アンラーニング・スキームを提案する。
我々は、未学習のデータに対して、すでに訓練済みのモデルの中で最も影響力のあるチャネルを選択します。
論文 参考訳(メタデータ) (2024-06-18T11:43:20Z) - Simplifying Neural Network Training Under Class Imbalance [77.39968702907817]
実世界のデータセットは、しばしば高いクラス不均衡であり、ディープラーニングモデルのパフォーマンスに悪影響を及ぼす可能性がある。
クラス不均衡下でのニューラルネットワークのトレーニングに関する研究の大部分は、特殊な損失関数、サンプリング技術、または2段階のトレーニング手順に焦点を当てている。
バッチサイズやデータ拡張,ラベルの平滑化といった,標準的なディープラーニングパイプラインの既存のコンポーネントを単にチューニングするだけで,そのような特殊なクラス不均衡な手法を使わずに,最先端のパフォーマンスを達成できることを実証する。
論文 参考訳(メタデータ) (2023-12-05T05:52:44Z) - Addressing Class Variable Imbalance in Federated Semi-supervised
Learning [10.542178602467885]
我々は,クラス変数の不均衡を解決するために,FCVI(Federated Semi-supervised Learning for Class Variable Im Balance)を提案する。
FCVIは、クラス数の変化によるデータの不均衡を軽減するために使用される。
クライアントのプライバシを維持しながら,ベースライン方式よりもはるかに優れた手法であることが実証された。
論文 参考訳(メタデータ) (2023-03-21T12:50:17Z) - Integrating Local Real Data with Global Gradient Prototypes for
Classifier Re-Balancing in Federated Long-Tailed Learning [60.41501515192088]
フェデレートラーニング(FL)は、グローバルモデルを協調的にトレーニングする複数のクライアントを含む、人気のある分散ラーニングパラダイムになっています。
データサンプルは通常、現実世界の長い尾の分布に従っており、分散化された長い尾のデータのFLは、貧弱なグローバルモデルをもたらす。
本研究では、局所的な実データとグローバルな勾配のプロトタイプを統合し、局所的なバランスの取れたデータセットを形成する。
論文 参考訳(メタデータ) (2023-01-25T03:18:10Z) - CMW-Net: Learning a Class-Aware Sample Weighting Mapping for Robust Deep
Learning [55.733193075728096]
現代のディープニューラルネットワークは、破損したラベルやクラス不均衡を含むバイアス付きトレーニングデータに容易に適合する。
サンプル再重み付け手法は、このデータバイアス問題を緩和するために一般的に使用されている。
本稿では,データから直接明示的な重み付け方式を適応的に学習できるメタモデルを提案する。
論文 参考訳(メタデータ) (2022-02-11T13:49:51Z) - Decentralized Federated Learning Preserves Model and Data Privacy [77.454688257702]
我々は、訓練されたモデル間で知識を共有することができる、完全に分散化されたアプローチを提案する。
生徒は、合成された入力データを通じて教師の出力を訓練する。
その結果,教師が学習した未学習学生モデルが,教師と同等のF1スコアに達することがわかった。
論文 参考訳(メタデータ) (2021-02-01T14:38:54Z) - Addressing Class Imbalance in Federated Learning [10.970632986559547]
Federated Learning(FL)は、ローカルクライアントデバイス上の分散データをトレーニングするための有望なアプローチである。
本研究では,FLラウンド毎のトレーニングデータの組成を推定し,その影響を軽減するために新しい損失関数 textbfRatio Loss を設計する。
論文 参考訳(メタデータ) (2020-08-14T07:28:08Z) - WAFFLe: Weight Anonymized Factorization for Federated Learning [88.44939168851721]
データが機密性やプライベート性を持つドメインでは、ローカルデバイスを離れることなく、分散的に学習できるメソッドには大きな価値があります。
本稿では,フェデレートラーニングのためのウェイト匿名化因子化(WAFFLe)を提案する。これは,インド・バフェット・プロセスとニューラルネットワークの重み要因の共有辞書を組み合わせたアプローチである。
論文 参考訳(メタデータ) (2020-08-13T04:26:31Z) - Long-Tailed Recognition Using Class-Balanced Experts [128.73438243408393]
本稿では,多様な分類器の強度を組み合わせたクラスバランスの専門家のアンサンブルを提案する。
私たちのクラスバランスの専門家のアンサンブルは、最先端に近い結果に到達し、長い尾の認識のための2つのベンチマークで新たな最先端のアンサンブルを確立します。
論文 参考訳(メタデータ) (2020-04-07T20:57:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。