論文の概要: Towards Federated Long-Tailed Learning
- arxiv url: http://arxiv.org/abs/2206.14988v1
- Date: Thu, 30 Jun 2022 02:34:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-02 05:03:06.884846
- Title: Towards Federated Long-Tailed Learning
- Title(参考訳): 長期学習をめざして
- Authors: Zihan Chen, Songshang Liu, Hualiang Wang, Howard H. Yang, Tony Q.S.
Quek and Zuozhu Liu
- Abstract要約: データプライバシとクラス不均衡は、多くの機械学習タスクの例外ではなく、標準である。
最近の試みでは、広範にわたるプライベートデータから学習する問題に対処する一方で、長い尾を持つデータから学ぶことが試みられている。
本稿では,プライバシ保護フェデレーション学習(FL)フレームワークのコンテキスト下での長期的データ分散(LT)学習に焦点を当てた。
- 参考スコア(独自算出の注目度): 76.50892783088702
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Data privacy and class imbalance are the norm rather than the exception in
many machine learning tasks. Recent attempts have been launched to, on one
side, address the problem of learning from pervasive private data, and on the
other side, learn from long-tailed data. However, both assumptions might hold
in practical applications, while an effective method to simultaneously
alleviate both issues is yet under development. In this paper, we focus on
learning with long-tailed (LT) data distributions under the context of the
popular privacy-preserved federated learning (FL) framework. We characterize
three scenarios with different local or global long-tailed data distributions
in the FL framework, and highlight the corresponding challenges. The
preliminary results under different scenarios reveal that substantial future
work are of high necessity to better resolve the characterized federated
long-tailed learning tasks.
- Abstract(参考訳): データプライバシとクラス不均衡は、多くの機械学習タスクの例外ではなく、規範である。
最近の試みでは、広範にわたるプライベートデータから学習する問題に対処する一方で、長い尾を持つデータから学ぶことが試みられている。
しかし、両方の仮定は実用的に適用できる可能性があり、同時に両方の問題を緩和する効果的な方法はまだ開発中である。
本稿では,プライバシ保護型フェデレート学習(fl)フレームワークのコンテキストにおいて,ロングテール(lt)データ分布を用いた学習に焦点をあてる。
FLフレームワークでは,ローカルあるいはグローバルな長期データ分布の異なる3つのシナリオを特徴付け,対応する課題を強調した。
異なるシナリオの下での予備的な結果は、特徴ある連合型ロングテール学習タスクをよりよく解決するために、実質的な将来の作業が必要であることを示している。
関連論文リスト
- Federated Large Language Models: Current Progress and Future Directions [63.68614548512534]
本稿では,LLM(FedLLM)のフェデレーション学習について調査し,最近の進歩と今後の方向性を明らかにする。
ファインチューニングと迅速な学習という2つの重要な側面に注目し、既存の作業と関連する研究課題について議論する。
論文 参考訳(メタデータ) (2024-09-24T04:14:33Z) - A Survey of Deep Long-Tail Classification Advancements [1.6233132273470656]
実世界の多くのデータ分布は、ほとんど均一ではない。代わりに、様々な種類の歪んだ、長い尾の分布がよく見られる。
これは機械学習にとって興味深い問題であり、ほとんどのアルゴリズムが均一に分散されたデータを想定したり、うまく機能する。
この問題は、大量のトレーニングデータを必要とする現在の最先端のディープラーニングモデルによってさらに悪化している。
論文 参考訳(メタデータ) (2024-04-24T01:59:02Z) - Federated Learning Empowered by Generative Content [55.576885852501775]
フェデレートラーニング(FL)は、プライバシ保護方法でモデルのトレーニングに分散プライベートデータを活用可能にする。
本稿では,FedGCと呼ばれる新しいFLフレームワークを提案する。
我々は、さまざまなベースライン、データセット、シナリオ、モダリティをカバーする、FedGCに関する体系的な実証的研究を行う。
論文 参考訳(メタデータ) (2023-12-10T07:38:56Z) - A Survey of Federated Unlearning: A Taxonomy, Challenges and Future
Directions [71.16718184611673]
プライバシ保護のためのフェデレートラーニング(FL)の進化により、忘れられる権利を実装する必要性が高まっている。
選択的な忘れ方の実装は、その分散した性質のため、FLでは特に困難である。
Federated Unlearning(FU)は、データプライバシの必要性の増加に対応する戦略的ソリューションとして登場した。
論文 参考訳(メタデータ) (2023-10-30T01:34:33Z) - A Survey on Class Imbalance in Federated Learning [6.632451878730774]
フェデレーション学習は、ネットワーク内の複数のクライアントデバイスが、クライアントのデータを直接露出することなく、機械学習モデルを共同でトレーニングすることを可能にする。
連合学習で訓練されたモデルは通常、標準集中学習モードで訓練されたモデルよりもパフォーマンスが悪いことが判明した。
論文 参考訳(メタデータ) (2023-03-21T08:34:23Z) - FedOS: using open-set learning to stabilize training in federated
learning [0.0]
フェデレートラーニング(Federated Learning)は、プライバシ制約に違反することなく、分散データセット上で統計モデルをトレーニングする、新たなアプローチである。
本報告では,この新たな研究領域を探索し,これらの課題の理解を深めるため,いくつかの実験を行う。
本稿では,これらの課題の1つに新しいアプローチを提案し,文献で見られる他の手法と比較する。
論文 参考訳(メタデータ) (2022-08-22T19:53:39Z) - FEDIC: Federated Learning on Non-IID and Long-Tailed Data via Calibrated
Distillation [54.2658887073461]
非IIDデータの処理は、フェデレーション学習における最も難しい問題の1つである。
本稿では, フェデレート学習における非IIDデータとロングテールデータの結合問題について検討し, フェデレート・アンサンブル蒸留と不均衡(FEDIC)という対応ソリューションを提案する。
FEDICはモデルアンサンブルを使用して、非IIDデータでトレーニングされたモデルの多様性を活用する。
論文 参考訳(メタデータ) (2022-04-30T06:17:36Z) - Non-IID data and Continual Learning processes in Federated Learning: A
long road ahead [58.720142291102135]
フェデレートラーニング(Federated Learning)は、複数のデバイスや機関が、データをプライベートに保存しながら、機械学習モデルを協調的にトレーニングすることを可能にする、新しいフレームワークである。
本研究では,データの統計的不均一性を正式に分類し,それに直面することのできる最も顕著な学習戦略をレビューする。
同時に、継続学習のような他の機械学習フレームワークからのアプローチを導入し、データの不均一性にも対処し、フェデレートラーニング設定に容易に適応できるようにします。
論文 参考訳(メタデータ) (2021-11-26T09:57:11Z) - Federated Learning on Non-IID Data Silos: An Experimental Study [34.28108345251376]
トレーニングデータは断片化され、複数のデータサイロの分散データベースを形成している。
本稿では,典型的な非IIDデータケースをカバーする包括的データ分割手法を提案する。
非IIDはFLアルゴリズムの精度を学習する上で大きな課題をもたらしており、既存のFLアルゴリズムが他のどの場合よりも優れているものはない。
論文 参考訳(メタデータ) (2021-02-03T14:29:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。