論文の概要: LINDT: Tackling Negative Federated Learning with Local Adaptation
- arxiv url: http://arxiv.org/abs/2011.11160v1
- Date: Mon, 23 Nov 2020 01:31:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-22 03:14:05.236142
- Title: LINDT: Tackling Negative Federated Learning with Local Adaptation
- Title(参考訳): LINDT: ローカル適応による負のフェデレーション学習に対処する
- Authors: Hong Lin, Lidan Shou, Ke Chen, Gang Chen, Sai Wu
- Abstract要約: NFLをリアルタイムに処理するための新しいフレームワーク LINDT を提案する。
本稿では,NFLをサーバから検出するためのメトリクスを紹介する。
実験結果から,提案手法は局所データ上でのFLの性能を著しく向上させることができることがわかった。
- 参考スコア(独自算出の注目度): 18.33409148798824
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Learning (FL) is a promising distributed learning paradigm, which
allows a number of data owners (also called clients) to collaboratively learn a
shared model without disclosing each client's data. However, FL may fail to
proceed properly, amid a state that we call negative federated learning (NFL).
This paper addresses the problem of negative federated learning. We formulate a
rigorous definition of NFL and analyze its essential cause. We propose a novel
framework called LINDT for tackling NFL in run-time. The framework can
potentially work with any neural-network-based FL systems for NFL detection and
recovery. Specifically, we introduce a metric for detecting NFL from the
server. On occasion of NFL recovery, the framework makes adaptation to the
federated model on each client's local data by learning a Layer-wise
Intertwined Dual-model. Experiment results show that the proposed approach can
significantly improve the performance of FL on local data in various scenarios
of NFL.
- Abstract(参考訳): Federated Learning(FL)は有望な分散学習パラダイムであり、多くのデータ所有者(クライアントとも呼ばれる)が、各クライアントのデータを公開することなく、共同で共有モデルを学ぶことができる。
しかし、負のフェデレート学習(nfl)と呼ばれる状態の中、flは正しく進行しない可能性がある。
本稿では、負のフェデレーション学習の問題に対処する。
NFLの厳密な定義を定式化し、その本質的な原因を分析する。
NFLをリアルタイムに処理するための新しいフレームワーク LINDT を提案する。
このフレームワークは、NFLの検出とリカバリのために、あらゆるニューラルネットワークベースのFLシステムで動作する可能性がある。
具体的には,サーバからNFLを検出するメトリクスを紹介する。
nflのリカバリ時には、各クライアントのローカルデータに対するフェデレーションモデルへの適応を、レイヤごとに相互に結合したデュアルモデルを学ぶことによって実現している。
実験の結果,nflの様々なシナリオにおいて,提案手法により局所データに対するflの性能が著しく向上することが示された。
関連論文リスト
- FL-GUARD: A Holistic Framework for Run-Time Detection and Recovery of
Negative Federated Learning [20.681802937080523]
フェデレートラーニング(FL)は、データプライバシを公開することなく、巨大なクライアント上に分散されたデータからモデルを学習するための有望なアプローチである。
NFL(Negative Federated Learning)と呼ばれる不健康な状態の中で、フェデレーションが理想的でない場合には、FLは適切に機能しない可能性がある。
本稿では,NFL をランタイムパラダイムで扱うための FL-GUARD について紹介する。
論文 参考訳(メタデータ) (2024-03-07T01:52:05Z) - PFL-GAN: When Client Heterogeneity Meets Generative Models in
Personalized Federated Learning [55.930403371398114]
パーソナライズドラーニング(PFL)のための新しいGAN(Generative Adversarial Network)の共有と集約戦略を提案する。
PFL-GANは、異なるシナリオにおけるクライアントの不均一性に対処する。より具体的には、まずクライアント間の類似性を学び、次に重み付けされた協調データアグリゲーションを開発する。
いくつかのよく知られたデータセットに対する厳密な実験による実験結果は、PFL-GANの有効性を示している。
論文 参考訳(メタデータ) (2023-08-23T22:38:35Z) - Federated Learning of Shareable Bases for Personalization-Friendly Image
Classification [54.72892987840267]
FedBasisは、いくつかの共有可能なベースモデルの集合を学習し、リニアに組み合わせて、クライアント用のパーソナライズされたモデルを形成することができる。
具体的には、新しいクライアントの場合、モデルの重みではなく、小さな組み合わせ係数のみを学ぶ必要がある。
また、FedBasisの有効性と適用性を示すために、画像分類のためのより実用的なPFLテストベッドを提案する。
論文 参考訳(メタデータ) (2023-04-16T20:19:18Z) - Client Selection for Generalization in Accelerated Federated Learning: A
Multi-Armed Bandit Approach [20.300740276237523]
フェデレート・ラーニング(Federated Learning, FL)は、ローカルデータセットを保持する複数のノード(すなわちクライアント)にわたるモデルをトレーニングするために使用される機械学習(ML)パラダイムである。
FL(Bandit Scheduling for FL)と呼ばれる,この目標を達成するための新しいアルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-03-18T09:45:58Z) - FLamby: Datasets and Benchmarks for Cross-Silo Federated Learning in
Realistic Healthcare Settings [51.09574369310246]
Federated Learning(FL)は、センシティブなデータを保持している複数のクライアントが協力して機械学習モデルをトレーニングできる新しいアプローチである。
本稿では,医療分野に重点を置くクロスサイロ・データセット・スイートFLambyを提案し,クロスサイロ・FLの理論と実践のギャップを埋める。
私たちのフレキシブルでモジュラーなスイートによって、研究者は簡単にデータセットをダウンロードし、結果を再現し、研究のためにさまざまなコンポーネントを再利用することができます。
論文 参考訳(メタデータ) (2022-10-10T12:17:30Z) - Federated Learning from Only Unlabeled Data with
Class-Conditional-Sharing Clients [98.22390453672499]
Supervised Federated Learning (FL)は、複数のクライアントがラベル付きデータを共有せずにトレーニングされたモデルを共有することを可能にする。
本研究では,教師なし学習(FedUL)のフェデレーションを提案し,各クライアントのラベル付きデータにラベル付きデータを変換する。
論文 参考訳(メタデータ) (2022-04-07T09:12:00Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - Inference-Time Personalized Federated Learning [17.60724466773559]
推論時間 PFL (Inference-Time PFL) は、一連のクライアントでトレーニングされたモデルを、推論時に新しい未ラベルのクライアントで後で評価する必要がある場所である。
本稿では,ハイパーネットワークモジュールとエンコーダモジュールをベースとしたIT-PFL-HNを提案する。
IT-PFL-HNは、特に新規クライアントが大きなドメインシフトを持つ場合、現在のFL法やPFL法よりも一般化されている。
論文 参考訳(メタデータ) (2021-11-16T10:57:20Z) - Splitfed learning without client-side synchronization: Analyzing
client-side split network portion size to overall performance [4.689140226545214]
Federated Learning (FL)、Split Learning (SL)、SplitFed Learning (SFL)は、分散機械学習における最近の3つの発展である。
本稿では,クライアント側モデル同期を必要としないSFLについて検討する。
MNISTテストセットでのMulti-head Split Learningよりも1%-2%の精度しか得られない。
論文 参考訳(メタデータ) (2021-09-19T22:57:23Z) - WAFFLe: Weight Anonymized Factorization for Federated Learning [88.44939168851721]
データが機密性やプライベート性を持つドメインでは、ローカルデバイスを離れることなく、分散的に学習できるメソッドには大きな価値があります。
本稿では,フェデレートラーニングのためのウェイト匿名化因子化(WAFFLe)を提案する。これは,インド・バフェット・プロセスとニューラルネットワークの重み要因の共有辞書を組み合わせたアプローチである。
論文 参考訳(メタデータ) (2020-08-13T04:26:31Z) - TiFL: A Tier-based Federated Learning System [17.74678728280232]
フェデレートラーニング(FL)は、プライバシ要件に違反することなく、多くのクライアント間で共有モデルを学ぶことを可能にする。
従来のFLシステムのトレーニング時間とモデル精度に,資源とデータの不均一性が大きな影響を与えることを示すケーススタディを実施している。
我々は,TiFLを提案する。TiFLは,クライアントをトレーニングパフォーマンスに基づいて階層に分割し,トレーニングラウンド毎に同一階層から選択する,階層ベースのフェデレートラーニングシステムである。
論文 参考訳(メタデータ) (2020-01-25T01:40:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。