論文の概要: Addressing Class Variable Imbalance in Federated Semi-supervised
Learning
- arxiv url: http://arxiv.org/abs/2303.11809v1
- Date: Tue, 21 Mar 2023 12:50:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-22 15:05:58.907478
- Title: Addressing Class Variable Imbalance in Federated Semi-supervised
Learning
- Title(参考訳): フェデレーション半教師付き学習におけるクラス可変不均衡の解消
- Authors: Zehui Dong, Wenjing Liu, Siyuan Liu, Xingzhi Chen
- Abstract要約: 我々は,クラス変数の不均衡を解決するために,FCVI(Federated Semi-supervised Learning for Class Variable Im Balance)を提案する。
FCVIは、クラス数の変化によるデータの不均衡を軽減するために使用される。
クライアントのプライバシを維持しながら,ベースライン方式よりもはるかに優れた手法であることが実証された。
- 参考スコア(独自算出の注目度): 10.542178602467885
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated Semi-supervised Learning (FSSL) combines techniques from both
fields of federated and semi-supervised learning to improve the accuracy and
performance of models in a distributed environment by using a small fraction of
labeled data and a large amount of unlabeled data. Without the need to
centralize all data in one place for training, it collect updates of model
training after devices train models at local, and thus can protect the privacy
of user data. However, during the federal training process, some of the devices
fail to collect enough data for local training, while new devices will be
included to the group training. This leads to an unbalanced global data
distribution and thus affect the performance of the global model training. Most
of the current research is focusing on class imbalance with a fixed number of
classes, while little attention is paid to data imbalance with a variable
number of classes. Therefore, in this paper, we propose Federated
Semi-supervised Learning for Class Variable Imbalance (FCVI) to solve class
variable imbalance. The class-variable learning algorithm is used to mitigate
the data imbalance due to changes of the number of classes. Our scheme is
proved to be significantly better than baseline methods, while maintaining
client privacy.
- Abstract(参考訳): フェデレーション・セミ教師付き学習(FSSL)は、フェデレーションとセミ教師付き学習の両方の分野のテクニックを組み合わせて、少数のラベル付きデータと大量のラベルなしデータを用いて、分散環境におけるモデルの精度と性能を改善する。
すべてのデータをトレーニングのために一箇所にまとめる必要がないため、デバイスがローカルでモデルをトレーニングした後、モデルトレーニングのアップデートを収集し、ユーザデータのプライバシを保護することができる。
しかし、連邦政府のトレーニングプロセスでは、いくつかのデバイスはローカルトレーニングのための十分なデータを収集できず、新しいデバイスはグループトレーニングに含まれる。
これにより、不均衡なグローバルデータ分散が発生し、グローバルモデルトレーニングのパフォーマンスに影響を及ぼす。
現在の研究の大半は、一定の数のクラスとクラスの不均衡に焦点を当てているが、データの不均衡とクラスの変動にはほとんど注意を払わない。
そこで本稿では,クラス変数の不均衡を解決するためのFCVI(Federated Semi-supervised Learning for Class Variable Im Balance)を提案する。
クラス変数学習アルゴリズムは、クラス数の変化によるデータの不均衡を軽減するために使用される。
クライアントのプライバシを維持しながら,ベースライン方式よりもはるかに優れた手法であることが実証された。
関連論文リスト
- On Homomorphic Encryption Based Strategies for Class Imbalance in Federated Learning [4.322339935902437]
トレーニングデータセットにおけるクラス不均衡は、機械学習モデルにおけるバイアスと一般化の欠如につながる可能性がある。
フェデレート学習におけるグローバルクラス不均衡に関連する問題に対処するプライバシー保護フレームワークであるFLICKERを提案する。
論文 参考訳(メタデータ) (2024-10-28T16:35:40Z) - Exploring Vacant Classes in Label-Skewed Federated Learning [113.65301899666645]
クライアント間の局所的なラベル分布の相違を特徴とするラベルスキューは、連合学習において大きな課題となる。
本稿では, ラベルスキュード・フェデレート学習における新しい手法であるFedVLSについて紹介する。
論文 参考訳(メタデータ) (2024-01-04T16:06:31Z) - A Survey on Class Imbalance in Federated Learning [6.632451878730774]
フェデレーション学習は、ネットワーク内の複数のクライアントデバイスが、クライアントのデータを直接露出することなく、機械学習モデルを共同でトレーニングすることを可能にする。
連合学習で訓練されたモデルは通常、標準集中学習モードで訓練されたモデルよりもパフォーマンスが悪いことが判明した。
論文 参考訳(メタデータ) (2023-03-21T08:34:23Z) - Integrating Local Real Data with Global Gradient Prototypes for
Classifier Re-Balancing in Federated Long-Tailed Learning [60.41501515192088]
フェデレートラーニング(FL)は、グローバルモデルを協調的にトレーニングする複数のクライアントを含む、人気のある分散ラーニングパラダイムになっています。
データサンプルは通常、現実世界の長い尾の分布に従っており、分散化された長い尾のデータのFLは、貧弱なグローバルモデルをもたらす。
本研究では、局所的な実データとグローバルな勾配のプロトタイプを統合し、局所的なバランスの取れたデータセットを形成する。
論文 参考訳(メタデータ) (2023-01-25T03:18:10Z) - Federated Zero-Shot Learning for Visual Recognition [55.65879596326147]
本稿では,Federated Zero-Shot Learning FedZSLフレームワークを提案する。
FedZSLは、エッジデバイス上の分散データから中心的なモデルを学ぶ。
FedZSLの有効性と堅牢性は、3つのゼロショットベンチマークデータセットで実施された広範な実験によって実証された。
論文 参考訳(メタデータ) (2022-09-05T14:49:34Z) - Efficient Augmentation for Imbalanced Deep Learning [8.38844520504124]
本研究では、畳み込みニューラルネットワークの内部表現である不均衡画像データについて検討する。
モデルの特徴埋め込みとテストセットの一般化ギャップを測定し、マイノリティクラスではそのギャップが広いことを示す。
この洞察により、不均衡なデータのための効率的な3相CNNトレーニングフレームワークを設計できる。
論文 参考訳(メタデータ) (2022-07-13T09:43:17Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - Federated learning with class imbalance reduction [24.044750119251308]
フェデレートラーニング(Federated Learning, FL)は、多数のエッジコンピューティングデバイスが協調してグローバルラーニングモデルをトレーニングすることを可能にする技術である。
プライバシー上の懸念から、デバイス上の生データは集中型サーバでは利用できない。
本稿では,生データを意識せずにクラス分布を明らかにするための推定手法を提案する。
論文 参考訳(メタデータ) (2020-11-23T08:13:43Z) - WAFFLe: Weight Anonymized Factorization for Federated Learning [88.44939168851721]
データが機密性やプライベート性を持つドメインでは、ローカルデバイスを離れることなく、分散的に学習できるメソッドには大きな価値があります。
本稿では,フェデレートラーニングのためのウェイト匿名化因子化(WAFFLe)を提案する。これは,インド・バフェット・プロセスとニューラルネットワークの重み要因の共有辞書を組み合わせたアプローチである。
論文 参考訳(メタデータ) (2020-08-13T04:26:31Z) - Think Locally, Act Globally: Federated Learning with Local and Global
Representations [92.68484710504666]
フェデレートラーニング(Federated Learning)とは、複数のデバイスに分散したプライベートデータ上でモデルをトレーニングする手法である。
本稿では,各デバイス上でコンパクトな局所表現を共同で学習する新しいフェデレーション学習アルゴリズムを提案する。
また、プライバシが鍵となる実世界のモバイルデータから、パーソナライズされた気分予測のタスクを評価する。
論文 参考訳(メタデータ) (2020-01-06T12:40:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。