論文の概要: Federated Continual Learning through distillation in pervasive computing
- arxiv url: http://arxiv.org/abs/2207.08181v1
- Date: Sun, 17 Jul 2022 13:55:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-20 07:13:20.623760
- Title: Federated Continual Learning through distillation in pervasive computing
- Title(参考訳): 普及型コンピューティングにおける蒸留による連立連続学習
- Authors: Anastasiia Usmanova, Fran\c{c}ois Portet, Philippe Lalanda, German
Vega
- Abstract要約: フェデレートラーニングは、ローカルデバイスの使用を促進する新しい機械学習パラダイムとして導入された。
現在のソリューションは、サーバが送信したモデルを微調整するために、クライアント側で大量のデータを保存することに依存しています。
この提案はHAR(Human Activity Recognition)領域で評価されており、破滅的な忘れ込み効果を効果的に減少させることが示されている。
- 参考スコア(独自算出の注目度): 0.2519906683279153
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated Learning has been introduced as a new machine learning paradigm
enhancing the use of local devices. At a server level, FL regularly aggregates
models learned locally on distributed clients to obtain a more general model.
Current solutions rely on the availability of large amounts of stored data at
the client side in order to fine-tune the models sent by the server. Such
setting is not realistic in mobile pervasive computing where data storage must
be kept low and data characteristic can change dramatically. To account for
this variability, a solution is to use the data regularly collected by the
client to progressively adapt the received model. But such naive approach
exposes clients to the well-known problem of catastrophic forgetting. To
address this problem, we have defined a Federated Continual Learning approach
which is mainly based on distillation. Our approach allows a better use of
resources, eliminating the need to retrain from scratch at the arrival of new
data and reducing memory usage by limiting the amount of data to be stored.
This proposal has been evaluated in the Human Activity Recognition (HAR) domain
and has shown to effectively reduce the catastrophic forgetting effect.
- Abstract(参考訳): フェデレーション学習は、ローカルデバイスの使用を促進する新しい機械学習パラダイムとして導入された。
サーバレベルでは、flは分散クライアントでローカルに学習したモデルを定期的に集約し、より一般的なモデルを得る。
現在のソリューションは、サーバが送信するモデルを微調整するために、クライアント側で大量のストアドデータの可用性に依存している。
このような設定は、データストレージを低く保ち、データ特性が劇的に変化するモバイルの普及型コンピューティングでは現実的ではない。
この可変性を考慮すると、クライアントが定期的に収集したデータを使って、受信したモデルを段階的に適応させる方法がある。
しかし、このようなナイーブなアプローチは、破滅的な忘れ方というよく知られた問題にクライアントをさらけ出す。
この問題に対処するために,我々は蒸留を主体とする連立連続学習アプローチを定義した。
当社のアプローチでは,新たなデータの到着時にスクラッチから再トレーニングする必要がなくなり,格納するデータの量を制限することでメモリ使用量を削減する,リソースのより優れた利用が可能になる。
この提案はHAR(Human Activity Recognition)領域で評価されており、破滅的な忘れ込み効果を効果的に減少させることが示されている。
関連論文リスト
- PeFAD: A Parameter-Efficient Federated Framework for Time Series Anomaly Detection [51.20479454379662]
私たちはaを提案します。
フェデレートされた異常検出フレームワークであるPeFADは、プライバシーの懸念が高まっている。
我々は、4つの実際のデータセットに対して広範な評価を行い、PeFADは既存の最先端ベースラインを最大28.74%上回っている。
論文 参考訳(メタデータ) (2024-06-04T13:51:08Z) - Federated Continual Learning Goes Online: Uncertainty-Aware Memory Management for Vision Tasks and Beyond [13.867793835583463]
本稿では,破滅的な記憶を解消するための不確実性を考慮したメモリベース手法を提案する。
特定の特性を持つサンプルを検索し、そのようなサンプル上でモデルを再訓練することで、このアプローチの可能性を実証する。
論文 参考訳(メタデータ) (2024-05-29T09:29:39Z) - An Aggregation-Free Federated Learning for Tackling Data Heterogeneity [50.44021981013037]
フェデレートラーニング(FL)は、分散データセットからの知識を活用する効果に頼っている。
従来のFLメソッドでは、クライアントが前回のトレーニングラウンドからサーバが集約したグローバルモデルに基づいてローカルモデルを更新するアグリゲート-then-adaptフレームワークを採用している。
我々は,新しいアグリゲーションフリーFLアルゴリズムであるFedAFを紹介する。
論文 参考訳(メタデータ) (2024-04-29T05:55:23Z) - Don't Memorize; Mimic The Past: Federated Class Incremental Learning
Without Episodic Memory [36.4406505365313]
本稿では,過去のデータの一部を格納するのではなく,生成モデルを用いて過去の分布からサンプルを合成する,連邦化クラスインクリメンタルラーニングのためのフレームワークを提案する。
生成モデルは、クライアントからデータを要求することなく、各タスクの最後にデータフリーのメソッドを使用してサーバ上でトレーニングされる。
論文 参考訳(メタデータ) (2023-07-02T07:06:45Z) - Improving information retention in large scale online continual learning [99.73847522194549]
オンライン連続学習は、既存の知識を維持しながら、新しいデータに効率的に適応することを目的としている。
最近の研究は、リプレイバッファが無制限であっても、大規模なOCLでは情報保持が問題であり続けていることを示唆している。
非定常目標に対する最適化を改善するため,移動平均の手法群を提案する。
論文 参考訳(メタデータ) (2022-10-12T16:59:43Z) - Federated Learning and catastrophic forgetting in pervasive computing:
demonstration in HAR domain [0.2519906683279153]
フェデレートラーニングは、ローカルデバイスの使用を促進する新しい機械学習パラダイムとして導入された。
現在のソリューションは、サーバが送信したモデルを微調整するために、クライアント側で大量のデータを保存することに依存しています。
本研究の目的は,スマートフォン上での人体行動認識の状況において,この問題を実証することである。
論文 参考訳(メタデータ) (2022-07-17T13:53:28Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z) - Data Selection for Efficient Model Update in Federated Learning [0.07614628596146598]
本稿では,グローバルモデルのトレーニングに必要なローカルデータの量を削減することを提案する。
本手法では, 局所データの特徴により敏感な部分と, 一般特徴抽出のための下位部分と, 上位部分とにモデルを分割する。
実験の結果,クライアントデータの特徴をグローバルモデルに転送できる地域データは1%未満であることがわかった。
論文 参考訳(メタデータ) (2021-11-05T14:07:06Z) - A Bayesian Federated Learning Framework with Online Laplace
Approximation [144.7345013348257]
フェデレートラーニングは、複数のクライアントが協力してグローバルに共有されたモデルを学ぶことを可能にする。
クライアント側とサーバ側の両方の後方部を近似するために,オンラインラプラス近似を用いた新しいFLフレームワークを提案する。
提案手法の利点を実証し,いくつかのベンチマークで最新の結果を得た。
論文 参考訳(メタデータ) (2021-02-03T08:36:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。