論文の概要: Modular Federated Learning
- arxiv url: http://arxiv.org/abs/2209.03090v1
- Date: Wed, 7 Sep 2022 11:54:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-08 12:48:09.384358
- Title: Modular Federated Learning
- Title(参考訳): モジュール型フェデレーション学習
- Authors: Kuo-Yun Liang, Abhishek Srinivasan, Juan Carlos Andresen
- Abstract要約: フェデレートラーニング(Federated Learning)は、ネットワークの端で機械学習モデルをトレーニングするアプローチである。
本稿では,モデルを構成モジュールと操作モジュールに分割する統合学習フレームワークとしてModFLを提案する。
ModFLはCNNを用いてCIFAR-10とSTL-10の非IIDデータパーティションに対してFedPerより優れていることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning is an approach to train machine learning models on the
edge of the networks, as close as possible where the data is produced,
motivated by the emerging problem of the inability to stream and centrally
store the large amount of data produced by edge devices as well as by data
privacy concerns. This learning paradigm is in need of robust algorithms to
device heterogeneity and data heterogeneity. This paper proposes ModFL as a
federated learning framework that splits the models into a configuration module
and an operation module enabling federated learning of the individual modules.
This modular approach makes it possible to extract knowlege from a group of
heterogeneous devices as well as from non-IID data produced from its users.
This approach can be viewed as an extension of the federated learning with
personalisation layers FedPer framework that addresses data heterogeneity. We
show that ModFL outperforms FedPer for non-IID data partitions of CIFAR-10 and
STL-10 using CNNs. Our results on time-series data with HAPT, RWHAR, and WISDM
datasets using RNNs remain inconclusive, we argue that the chosen datasets do
not highlight the advantages of ModFL, but in the worst case scenario it
performs as well as FedPer.
- Abstract(参考訳): フェデレーション学習(federated learning)は、エッジデバイスが生成する大量のデータをストリーミングし、集中的に保存できないという新たな問題と、データのプライバシの懸念から、データの生成場所を可能な限り近づけて、ネットワークのエッジ上でマシンラーニングモデルをトレーニングするアプローチである。
この学習パラダイムは、不均一性とデータ不均一性を示す堅牢なアルゴリズムを必要とする。
本稿では,モデルをコンフィグレーションモジュールと個別モジュールのフェデレーション学習を可能にするオペレーションモジュールに分割するフェデレーション学習フレームワークとしてmodflを提案する。
このモジュラーアプローチにより、ヘテロジニアスデバイス群と、そのユーザから生成された非IIDデータからノウレゲを抽出することができる。
このアプローチは、データの多様性に対処するパーソナライズ層federフレームワークによるフェデレーション学習の拡張と見なすことができる。
ModFLはCNNを用いてCIFAR-10とSTL-10の非IIDデータパーティションに対してFedPerより優れていることを示す。
RNNを用いたHAPT, RWHAR, WISDMデータセットを用いた時系列データの結果は決定的ではなく, 選択したデータセットはModFLの利点を強調しないが, 最悪の場合, FedPerと同様に動作する。
関連論文リスト
- MultiConfederated Learning: Inclusive Non-IID Data handling with Decentralized Federated Learning [1.2726316791083532]
Federated Learning (FL) は、機密性のある臨床機械学習のようなユースケースを可能にするための、顕著なプライバシ保護技術として登場した。
FLはデータを所有するリモートデバイスによってトレーニングされたモデルを集約することで動作する。
非IIDデータを扱うために設計された分散FLフレームワークであるMultiConfederated Learningを提案する。
論文 参考訳(メタデータ) (2024-04-20T16:38:26Z) - FLIGAN: Enhancing Federated Learning with Incomplete Data using GAN [1.5749416770494706]
Federated Learning (FL)は、ネットワークデバイス上での機械学習モデルの分散トレーニングのためのプライバシ保護メカニズムを提供する。
本稿では,FLにおけるデータ不完全性問題に対処する新しいアプローチであるFLIGANを提案する。
本手法はFLのプライバシ要件に則り,プロセス内の実際のデータを共有せずに合成データをフェデレートした方法で生成する。
論文 参考訳(メタデータ) (2024-03-25T16:49:38Z) - Fake It Till Make It: Federated Learning with Consensus-Oriented
Generation [52.82176415223988]
コンセンサス指向生成による連合学習(FedCOG)を提案する。
FedCOGは、補完的なデータ生成と知識蒸留に基づくモデルトレーニングという、クライアント側の2つの重要なコンポーネントで構成されています。
古典的および実世界のFLデータセットの実験は、FedCOGが一貫して最先端の手法より優れていることを示している。
論文 参考訳(メタデータ) (2023-12-10T18:49:59Z) - Resource-Aware Heterogeneous Federated Learning using Neural Architecture Search [8.184714897613166]
フェデレートラーニング(FL)は、分散およびプライバシ保護設定でAI/MLモデルをトレーニングするために使用される。
資源対応フェデレーションラーニング(RaFL)を提案する。
RaFLがNeural Architecture Search (NAS)を使用して、リソースを意識した特殊なモデルをエッジデバイスに割り当てる
論文 参考訳(メタデータ) (2022-11-09T09:38:57Z) - Federated Learning and Meta Learning: Approaches, Applications, and
Directions [94.68423258028285]
本稿では,FL,メタラーニング,フェデレーションメタラーニング(FedMeta)について概観する。
他のチュートリアルと異なり、私たちの目標はFL、メタラーニング、FedMetaの方法論をどのように設計、最適化、進化させ、無線ネットワーク上で応用するかを探ることです。
論文 参考訳(メタデータ) (2022-10-24T10:59:29Z) - Neural Attentive Circuits [93.95502541529115]
我々は、NAC(Neural Attentive Circuits)と呼ばれる汎用的でモジュラーなニューラルアーキテクチャを導入する。
NACは、ドメイン知識を使わずに、ニューラルネットワークモジュールのパラメータ化と疎結合を学習する。
NACは推論時に8倍のスピードアップを達成するが、性能は3%以下である。
論文 参考訳(メタデータ) (2022-10-14T18:00:07Z) - Multi-Edge Server-Assisted Dynamic Federated Learning with an Optimized
Floating Aggregation Point [51.47520726446029]
協調エッジ学習(CE-FL)は、分散機械学習アーキテクチャである。
CE-FLの過程をモデル化し,分析訓練を行った。
実世界のテストベッドから収集したデータを用いて,本フレームワークの有効性を示す。
論文 参考訳(メタデータ) (2022-03-26T00:41:57Z) - Secure Neuroimaging Analysis using Federated Learning with Homomorphic
Encryption [14.269757725951882]
フェデレートラーニング(FL)は、異なるリモートデータソース上の機械学習モデルの分散計算を可能にする。
最近のメンバーシップ攻撃は、モデルパラメータや要約統計が中央サイトと共有されているときに、個人的または機密性の高い個人情報が漏洩したり、推測されることがあることを示している。
完全同相暗号(FHE)を用いたセキュアFLフレームワークを提案する。
論文 参考訳(メタデータ) (2021-08-07T12:15:52Z) - FedMix: Approximation of Mixup under Mean Augmented Federated Learning [60.503258658382]
フェデレートラーニング(FL)は、エッジデバイスが各デバイス内でデータを直接共有することなく、モデルを集合的に学習することを可能にする。
現在の最先端アルゴリズムは、クライアント間のローカルデータの均一性が増大するにつれて性能劣化に悩まされる。
我々はFedMixという名の新しい拡張アルゴリズムを提案し、これは驚くべきが単純なデータ拡張手法であるMixupにインスパイアされている。
論文 参考訳(メタデータ) (2021-07-01T06:14:51Z) - Rethinking Architecture Design for Tackling Data Heterogeneity in
Federated Learning [53.73083199055093]
注意に基づくアーキテクチャ(例えばTransformers)は、分散シフトに対してかなり堅牢であることを示す。
我々の実験は、畳み込みネットワークをトランスフォーマーに置き換えることによって、過去のデバイスを壊滅的に忘れることを大幅に減らせることを示した。
論文 参考訳(メタデータ) (2021-06-10T21:04:18Z) - Evaluation Framework For Large-scale Federated Learning [10.127616622630514]
フェデレーテッド・ラーニングは、携帯電話などの分散型エッジデバイスが協調して共有予測モデルを学習できるようにするための機械学習環境として提案されている。
本稿では,データセットとモジュール型評価フレームワークを生成するためのアプローチからなる,大規模フェデレーション学習のためのフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-03T15:12:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。