論文の概要: Federated Learning and catastrophic forgetting in pervasive computing:
demonstration in HAR domain
- arxiv url: http://arxiv.org/abs/2207.08180v1
- Date: Sun, 17 Jul 2022 13:53:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-20 07:19:32.622508
- Title: Federated Learning and catastrophic forgetting in pervasive computing:
demonstration in HAR domain
- Title(参考訳): 普及型コンピューティングにおける連合学習と破滅的忘れ方:harドメインでの実証
- Authors: Anastasiia Usmanova, Fran\c{c}ois Portet, Philippe Lalanda, German
Vega
- Abstract要約: フェデレートラーニングは、ローカルデバイスの使用を促進する新しい機械学習パラダイムとして導入された。
現在のソリューションは、サーバが送信したモデルを微調整するために、クライアント側で大量のデータを保存することに依存しています。
本研究の目的は,スマートフォン上での人体行動認識の状況において,この問題を実証することである。
- 参考スコア(独自算出の注目度): 0.2519906683279153
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated Learning has been introduced as a new machine learning paradigm
enhancing the use of local devices. At a server level, FL regularly aggregates
models learned locally on distributed clients to obtain a more general model.
In this way, no private data is sent over the network, and the communication
cost is reduced. However, current solutions rely on the availability of large
amounts of stored data at the client side in order to fine-tune the models sent
by the server. Such setting is not realistic in mobile pervasive computing
where data storage must be kept low and data characteristic (distribution) can
change dramatically. To account for this variability, a solution is to use the
data regularly collected by the client to progressively adapt the received
model. But such naive approach exposes clients to the well-known problem of
catastrophic forgetting. The purpose of this paper is to demonstrate this
problem in the mobile human activity recognition context on smartphones.
- Abstract(参考訳): フェデレーション学習は、ローカルデバイスの使用を促進する新しい機械学習パラダイムとして導入された。
サーバレベルでは、flは分散クライアントでローカルに学習したモデルを定期的に集約し、より一般的なモデルを得る。
これにより、ネットワークを介してプライベートデータが送信されず、通信コストが削減される。
しかし、現在のソリューションは、サーバが送信するモデルを微調整するために、クライアント側で大量のストアドデータの可用性に依存している。
このような設定は、データストレージを低く保たなければならず、データ特性(分散)が劇的に変化するモバイル普及コンピューティングでは現実的ではない。
この可変性を考慮すると、クライアントが定期的に収集したデータを使って、受信したモデルを段階的に適応させる方法がある。
しかし、このようなナイーブなアプローチは、破滅的な忘れ方というよく知られた問題にクライアントをさらけ出す。
本研究の目的は,スマートフォン上での人体行動認識におけるこの問題を実証することである。
関連論文リスト
- Don't Memorize; Mimic The Past: Federated Class Incremental Learning
Without Episodic Memory [36.4406505365313]
本稿では,過去のデータの一部を格納するのではなく,生成モデルを用いて過去の分布からサンプルを合成する,連邦化クラスインクリメンタルラーニングのためのフレームワークを提案する。
生成モデルは、クライアントからデータを要求することなく、各タスクの最後にデータフリーのメソッドを使用してサーバ上でトレーニングされる。
論文 参考訳(メタデータ) (2023-07-02T07:06:45Z) - Continual Adaptation of Vision Transformers for Federated Learning [26.64725725128934]
我々は,サーバが一連のクライアントと通信し,新たな概念を漸進的に学習する,連続的フェデレートラーニング(CFL)の重要な課題に注目した。
この問題に対する既存の試みは、クライアントや通信チャネルに大きなオーバーヘッドを課す傾向がある。
本稿では,サーバにおけるクライアントモデルを統合するための,新規で軽量な生成・蒸留方式を提案する。
論文 参考訳(メタデータ) (2023-06-16T17:02:12Z) - DYNAFED: Tackling Client Data Heterogeneity with Global Dynamics [60.60173139258481]
非イド分散データに対する局所訓練は、偏向局所最適化をもたらす。
自然な解決策は、サーバがデータ分散全体のグローバルなビューを持つように、すべてのクライアントデータをサーバに収集することです。
本稿では,データプライバシを損なうことなく,サーバ上でのグローバルな知識の収集と活用を図る。
論文 参考訳(メタデータ) (2022-11-20T06:13:06Z) - Federated Continual Learning through distillation in pervasive computing [0.2519906683279153]
フェデレートラーニングは、ローカルデバイスの使用を促進する新しい機械学習パラダイムとして導入された。
現在のソリューションは、サーバが送信したモデルを微調整するために、クライアント側で大量のデータを保存することに依存しています。
この提案はHAR(Human Activity Recognition)領域で評価されており、破滅的な忘れ込み効果を効果的に減少させることが示されている。
論文 参考訳(メタデータ) (2022-07-17T13:55:20Z) - Applied Federated Learning: Architectural Design for Robust and
Efficient Learning in Privacy Aware Settings [0.8454446648908585]
古典的な機械学習パラダイムは、中央にユーザーデータの集約を必要とする。
データの集中化は、内部および外部のセキュリティインシデントのリスクを高めることを含むリスクを引き起こす。
差分プライバシーによるフェデレーション学習は、サーバ側の集中化落とし穴を避けるように設計されている。
論文 参考訳(メタデータ) (2022-06-02T00:30:04Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - Data Selection for Efficient Model Update in Federated Learning [0.07614628596146598]
本稿では,グローバルモデルのトレーニングに必要なローカルデータの量を削減することを提案する。
本手法では, 局所データの特徴により敏感な部分と, 一般特徴抽出のための下位部分と, 上位部分とにモデルを分割する。
実験の結果,クライアントデータの特徴をグローバルモデルに転送できる地域データは1%未満であることがわかった。
論文 参考訳(メタデータ) (2021-11-05T14:07:06Z) - Federated Multi-Target Domain Adaptation [99.93375364579484]
フェデレートされた学習手法により、プライバシを保護しながら、分散ユーザデータ上で機械学習モデルをトレーニングすることが可能になります。
分散クライアントデータがラベル付けされず、集中型ラベル付きデータセットがサーバ上で利用可能となる、より実用的なシナリオを考えます。
本稿では,新しい課題に対処する効果的なDualAdapt法を提案する。
論文 参考訳(メタデータ) (2021-08-17T17:53:05Z) - Towards Fair Federated Learning with Zero-Shot Data Augmentation [123.37082242750866]
フェデレーション学習は重要な分散学習パラダイムとして登場し、サーバはクライアントデータにアクセスせずに、多くのクライアントがトレーニングしたモデルからグローバルモデルを集約する。
本稿では, 統計的不均一性を緩和し, フェデレートネットワークにおけるクライアント間での精度向上を図るために, ゼロショットデータ拡張を用いた新しいフェデレーション学習システムを提案する。
Fed-ZDAC (クライアントでのゼロショットデータ拡張によるフェデレーション学習) と Fed-ZDAS (サーバでのゼロショットデータ拡張によるフェデレーション学習) の2種類について検討する。
論文 参考訳(メタデータ) (2021-04-27T18:23:54Z) - A Bayesian Federated Learning Framework with Online Laplace
Approximation [144.7345013348257]
フェデレートラーニングは、複数のクライアントが協力してグローバルに共有されたモデルを学ぶことを可能にする。
クライアント側とサーバ側の両方の後方部を近似するために,オンラインラプラス近似を用いた新しいFLフレームワークを提案する。
提案手法の利点を実証し,いくつかのベンチマークで最新の結果を得た。
論文 参考訳(メタデータ) (2021-02-03T08:36:58Z) - Think Locally, Act Globally: Federated Learning with Local and Global
Representations [92.68484710504666]
フェデレートラーニング(Federated Learning)とは、複数のデバイスに分散したプライベートデータ上でモデルをトレーニングする手法である。
本稿では,各デバイス上でコンパクトな局所表現を共同で学習する新しいフェデレーション学習アルゴリズムを提案する。
また、プライバシが鍵となる実世界のモバイルデータから、パーソナライズされた気分予測のタスクを評価する。
論文 参考訳(メタデータ) (2020-01-06T12:40:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。