論文の概要: Model-Agnostic Federated Learning
- arxiv url: http://arxiv.org/abs/2303.04906v1
- Date: Wed, 8 Mar 2023 21:51:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-10 16:47:20.258359
- Title: Model-Agnostic Federated Learning
- Title(参考訳): モデル非依存連合学習
- Authors: Gianluca Mittone and Walter Riviera and Iacopo Colonnelli and Robert
Birke and Marco Aldinucci
- Abstract要約: 非DNNのユースケースに対するMAFL(Model-Agnostic Federated Learning)を提案する。
MAFLは、モデルに依存しないFLアルゴリズムであるAdaBoost.Fと、オープンな業界グレードのFLフレームワークであるIntel OpenFLを結合する。
複数の視点からMAFLをテストし、その正確性、柔軟性、64ノードまでのスケーラビリティを評価します。
- 参考スコア(独自算出の注目度): 2.966640139927948
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Since its debut in 2016, Federated Learning (FL) has been tied to the inner
workings of Deep Neural Networks (DNNs). On the one hand, this allowed its
development and widespread use as DNNs proliferated. On the other hand, it
neglected all those scenarios in which using DNNs is not possible or
advantageous. The fact that most current FL frameworks only allow training DNNs
reinforces this problem. To address the lack of FL solutions for non-DNN-based
use cases, we propose MAFL (Model-Agnostic Federated Learning). MAFL marries a
model-agnostic FL algorithm, AdaBoost.F, with an open industry-grade FL
framework: Intel OpenFL. MAFL is the first FL system not tied to any specific
type of machine learning model, allowing exploration of FL scenarios beyond
DNNs and trees. We test MAFL from multiple points of view, assessing its
correctness, flexibility and scaling properties up to 64 nodes. We optimised
the base software achieving a 5.5x speedup on a standard FL scenario. MAFL is
compatible with x86-64, ARM-v8, Power and RISC-V.
- Abstract(参考訳): 2016年のデビュー以来、連合学習(federated learning、fl)はディープニューラルネットワーク(dnn)の内部動作と結びついている。
一方、DNNの普及に伴い、開発と広く使われるようになった。
一方、DNNの使用が不可能または有利なシナリオをすべて無視した。
現在のFLフレームワークでDNNのトレーニングしかできないという事実は、この問題を強化します。
非DNNベースのユースケースに対するFLソリューションの欠如を解決するため,MAFL(Model-Agnostic Federated Learning)を提案する。
MAFLは、モデルに依存しないFLアルゴリズムであるAdaBoost.Fと、オープンな業界グレードのFLフレームワークであるIntel OpenFLを結合する。
MAFLは、特定の種類の機械学習モデルに縛られない最初のFLシステムであり、DNNや木を越えてFLシナリオを探索することができる。
複数の視点からmaflをテストし,その正確性,柔軟性,最大64ノードまでのスケーリング特性を評価した。
標準的なFLシナリオで5.5倍の高速化を実現した。
MAFLはx86-64、ARM-v8、Power、RISC-Vと互換性がある。
関連論文リスト
- A Federated Learning Benchmark on Tabular Data: Comparing Tree-Based Models and Neural Networks [0.21485350418225244]
フェデレートラーニング(FL)は、機械学習モデルが分散データセットでトレーニングする方法に対処するため、注目を集めている。
本研究では,データ分割の異なる水平FLのためのフェデレーションTBMとDNNのベンチマークを行った。
フェデレートされたTBMは,クライアント数を大幅に増やしても,フェデレーションされたパラメトリックモデルよりも優れていた。
論文 参考訳(メタデータ) (2024-05-03T13:08:56Z) - Automated Federated Learning in Mobile Edge Networks -- Fast Adaptation
and Convergence [83.58839320635956]
フェデレートラーニング(FL)は、モバイルエッジネットワークで機械学習モデルを分散的にトレーニングするために使用することができる。
最近のFLは、モデルに依存しないメタラーニング(MAML)フレームワークで解釈されている。
本稿は,MAMLがFLにもたらすメリットと,モバイルエッジネットワーク上でのメリットの最大化について論じる。
論文 参考訳(メタデータ) (2023-03-23T02:42:10Z) - Rethinking Normalization Methods in Federated Learning [92.25845185724424]
フェデレートラーニング(FL)は、プライベートデータを明示的に共有しないことでプライバシーリスクを低減できる人気のある分散ラーニングフレームワークである。
我々は、外部共変量シフトが、世界モデルに対する一部のデバイスからの貢献の消滅につながることを示した。
論文 参考訳(メタデータ) (2022-10-07T01:32:24Z) - DeFL: Decentralized Weight Aggregation for Cross-silo Federated Learning [2.43923223501858]
フェデレートラーニング(FL)は、プライバシ保護機械学習(ML)の新たなパラダイムである。
クロスサイロFLのための分散重み集約フレームワークであるDeFLを提案する。
DeFLは各ノードの重みを集約することで中央サーバを排除し、現在のトレーニングラウンドのみの重みはすべてのノード間で維持および同期される。
論文 参考訳(メタデータ) (2022-08-01T13:36:49Z) - MGDCF: Distance Learning via Markov Graph Diffusion for Neural
Collaborative Filtering [96.65234340724237]
現状のGNNベースCFモデルとコンテキスト符号化に基づく従来の1層NRLモデルとの等価性を示す。
マルコフグラフ拡散協調フィルタ (MGDCF) を用いて, 最先端のGNNベースCFモデルを一般化する。
論文 参考訳(メタデータ) (2022-04-05T17:24:32Z) - SlimFL: Federated Learning with Superposition Coding over Slimmable
Neural Networks [56.68149211499535]
フェデレートラーニング(FL)は、デバイスの分散コンピューティング機能を活用した効率的なコミュニケーションとコンピューティングのための重要な実現手段である。
本稿では、FLと幅調整可能なスリムブルニューラルネットワーク(SNN)を統合した新しい学習フレームワークを提案する。
局所モデル更新のためのグローバルモデル集約と重ね合わせ訓練(ST)に重ね合わせ符号化(SC)を併用した通信およびエネルギー効率の高いSNNベースFL(SlimFL)を提案する。
論文 参考訳(メタデータ) (2022-03-26T15:06:13Z) - Federated Nearest Neighbor Classification with a Colony of Fruit-Flies:
With Supplement [15.102346715690755]
本稿では,このハッシュとブルームフィルタを新たに再プログラミングし,標準近傍分類器(NNC)をエミュレートするフェデレートラーニング(FL)方式を提案する。
具体的には、FlyhashとFBFを用いてFlyNN分類器を作成し、理論上FlyNNがNNCにマッチする条件を確立する。
FlyNNFLを生成するための通信オーバーヘッドの少ないFLセットアップにおいて、FlyNNが正確にトレーニングされているか、また、どのように差分プライベートになるかを示す。
論文 参考訳(メタデータ) (2021-12-14T04:38:09Z) - Joint Superposition Coding and Training for Federated Learning over
Multi-Width Neural Networks [52.93232352968347]
本稿では,2つの相乗的技術,フェデレートラーニング(FL)と幅調整可能なスリムブルニューラルネットワーク(SNN)を統合することを目的とする。
FLは、ローカルに訓練されたモバイルデバイスのモデルを交換することによって、データのプライバシを保護している。しかしながら、SNNは、特に時間変化のあるチャネル条件との無線接続下では、非自明である。
局所モデル更新のためのグローバルモデル集約と重ね合わせ訓練(ST)に重ね合わせ符号化(SC)を併用した通信およびエネルギー効率の高いSNNベースFL(SlimFL)を提案する。
論文 参考訳(メタデータ) (2021-12-05T11:17:17Z) - FedGraphNN: A Federated Learning System and Benchmark for Graph Neural
Networks [68.64678614325193]
グラフニューラルネットワーク(GNN)の研究は、グラフ構造データから表現を学ぶGNNの能力のおかげで急速に成長しています。
GNNトレーニングのための大量の実世界のグラフデータを集中させることは、ユーザ側のプライバシー上の懸念から禁じられている。
GNNベースのFL研究を促進するためのオープンリサーチフェデレーション学習システムとベンチマークであるFedGraphNNを紹介します。
論文 参考訳(メタデータ) (2021-04-14T22:11:35Z) - Multi-Task Federated Learning for Personalised Deep Neural Networks in
Edge Computing [23.447883712141422]
Federated Learning(FL)は、モバイルデバイス上でDeep Neural Networks(DNN)を協調的にトレーニングする、新たなアプローチである。
従来の研究では、非独立分散(非IID)ユーザデータがFLアルゴリズムの収束速度を損なうことが示されている。
本稿では,非フェデレーションバッチ-Normalization層をフェデレーションDNNに導入するマルチタスクFL(MTFL)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-17T21:11:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。