論文の概要: Towards Federated Long-Tailed Learning
- arxiv url: http://arxiv.org/abs/2206.14988v1
- Date: Thu, 30 Jun 2022 02:34:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-02 05:03:06.884846
- Title: Towards Federated Long-Tailed Learning
- Title(参考訳): 長期学習をめざして
- Authors: Zihan Chen, Songshang Liu, Hualiang Wang, Howard H. Yang, Tony Q.S.
Quek and Zuozhu Liu
- Abstract要約: データプライバシとクラス不均衡は、多くの機械学習タスクの例外ではなく、標準である。
最近の試みでは、広範にわたるプライベートデータから学習する問題に対処する一方で、長い尾を持つデータから学ぶことが試みられている。
本稿では,プライバシ保護フェデレーション学習(FL)フレームワークのコンテキスト下での長期的データ分散(LT)学習に焦点を当てた。
- 参考スコア(独自算出の注目度): 76.50892783088702
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Data privacy and class imbalance are the norm rather than the exception in
many machine learning tasks. Recent attempts have been launched to, on one
side, address the problem of learning from pervasive private data, and on the
other side, learn from long-tailed data. However, both assumptions might hold
in practical applications, while an effective method to simultaneously
alleviate both issues is yet under development. In this paper, we focus on
learning with long-tailed (LT) data distributions under the context of the
popular privacy-preserved federated learning (FL) framework. We characterize
three scenarios with different local or global long-tailed data distributions
in the FL framework, and highlight the corresponding challenges. The
preliminary results under different scenarios reveal that substantial future
work are of high necessity to better resolve the characterized federated
long-tailed learning tasks.
- Abstract(参考訳): データプライバシとクラス不均衡は、多くの機械学習タスクの例外ではなく、規範である。
最近の試みでは、広範にわたるプライベートデータから学習する問題に対処する一方で、長い尾を持つデータから学ぶことが試みられている。
しかし、両方の仮定は実用的に適用できる可能性があり、同時に両方の問題を緩和する効果的な方法はまだ開発中である。
本稿では,プライバシ保護型フェデレート学習(fl)フレームワークのコンテキストにおいて,ロングテール(lt)データ分布を用いた学習に焦点をあてる。
FLフレームワークでは,ローカルあるいはグローバルな長期データ分布の異なる3つのシナリオを特徴付け,対応する課題を強調した。
異なるシナリオの下での予備的な結果は、特徴ある連合型ロングテール学習タスクをよりよく解決するために、実質的な将来の作業が必要であることを示している。
関連論文リスト
- Federated Learning Empowered by Generative Content [55.576885852501775]
フェデレートラーニング(FL)は、プライバシ保護方法でモデルのトレーニングに分散プライベートデータを活用可能にする。
本稿では,FedGCと呼ばれる新しいFLフレームワークを提案する。
我々は、さまざまなベースライン、データセット、シナリオ、モダリティをカバーする、FedGCに関する体系的な実証的研究を行う。
論文 参考訳(メタデータ) (2023-12-10T07:38:56Z) - A Survey of Federated Unlearning: A Taxonomy, Challenges and Future
Directions [71.16718184611673]
プライバシ保護のためのフェデレートラーニング(FL)の進化により、忘れられる権利を実装する必要性が高まっている。
選択的な忘れ方の実装は、その分散した性質のため、FLでは特に困難である。
Federated Unlearning(FU)は、データプライバシの必要性の増加に対応する戦略的ソリューションとして登場した。
論文 参考訳(メタデータ) (2023-10-30T01:34:33Z) - CTP: Towards Vision-Language Continual Pretraining via Compatible
Momentum Contrast and Topology Preservation [128.00940554196976]
Vision-Language Continual Pretraining (VLCP)は、大規模なデータセット上でオフラインでトレーニングすることで、さまざまな下流タスクに対して印象的な結果を示している。
VLCP(Vision-Language Continual Pretraining)の研究を支援するために,我々はまず,包括的で統一されたベンチマークデータセットP9Dをコントリビュートする。
独立したタスクとしての各業界からのデータは、継続的な学習をサポートし、Webデータの事前学習をシミュレートする現実世界のロングテールな性質に準拠している。
論文 参考訳(メタデータ) (2023-08-14T13:53:18Z) - A Survey on Class Imbalance in Federated Learning [6.632451878730774]
フェデレーション学習は、ネットワーク内の複数のクライアントデバイスが、クライアントのデータを直接露出することなく、機械学習モデルを共同でトレーニングすることを可能にする。
連合学習で訓練されたモデルは通常、標準集中学習モードで訓練されたモデルよりもパフォーマンスが悪いことが判明した。
論文 参考訳(メタデータ) (2023-03-21T08:34:23Z) - FedOS: using open-set learning to stabilize training in federated
learning [0.0]
フェデレートラーニング(Federated Learning)は、プライバシ制約に違反することなく、分散データセット上で統計モデルをトレーニングする、新たなアプローチである。
本報告では,この新たな研究領域を探索し,これらの課題の理解を深めるため,いくつかの実験を行う。
本稿では,これらの課題の1つに新しいアプローチを提案し,文献で見られる他の手法と比較する。
論文 参考訳(メタデータ) (2022-08-22T19:53:39Z) - FEDIC: Federated Learning on Non-IID and Long-Tailed Data via Calibrated
Distillation [54.2658887073461]
非IIDデータの処理は、フェデレーション学習における最も難しい問題の1つである。
本稿では, フェデレート学習における非IIDデータとロングテールデータの結合問題について検討し, フェデレート・アンサンブル蒸留と不均衡(FEDIC)という対応ソリューションを提案する。
FEDICはモデルアンサンブルを使用して、非IIDデータでトレーニングされたモデルの多様性を活用する。
論文 参考訳(メタデータ) (2022-04-30T06:17:36Z) - Non-IID data and Continual Learning processes in Federated Learning: A
long road ahead [58.720142291102135]
フェデレートラーニング(Federated Learning)は、複数のデバイスや機関が、データをプライベートに保存しながら、機械学習モデルを協調的にトレーニングすることを可能にする、新しいフレームワークである。
本研究では,データの統計的不均一性を正式に分類し,それに直面することのできる最も顕著な学習戦略をレビューする。
同時に、継続学習のような他の機械学習フレームワークからのアプローチを導入し、データの不均一性にも対処し、フェデレートラーニング設定に容易に適応できるようにします。
論文 参考訳(メタデータ) (2021-11-26T09:57:11Z) - Federated Learning on Non-IID Data: A Survey [11.431837357827396]
フェデレーション学習(Federated Learning)は、プライバシ保護のための分散機械学習フレームワークである。
連合学習で訓練されたモデルは、通常、標準集中学習モードで訓練されたモデルよりもパフォーマンスが劣る。
論文 参考訳(メタデータ) (2021-06-12T19:45:35Z) - Federated Learning on Non-IID Data Silos: An Experimental Study [34.28108345251376]
トレーニングデータは断片化され、複数のデータサイロの分散データベースを形成している。
本稿では,典型的な非IIDデータケースをカバーする包括的データ分割手法を提案する。
非IIDはFLアルゴリズムの精度を学習する上で大きな課題をもたらしており、既存のFLアルゴリズムが他のどの場合よりも優れているものはない。
論文 参考訳(メタデータ) (2021-02-03T14:29:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。