論文の概要: Papaya: Federated Learning, but Fully Decentralized
- arxiv url: http://arxiv.org/abs/2303.06189v1
- Date: Fri, 10 Mar 2023 19:46:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-14 20:32:43.338965
- Title: Papaya: Federated Learning, but Fully Decentralized
- Title(参考訳): パパイヤ:連合学習、しかし完全に分散化
- Authors: Ram M Kripa, Andy Zou, Ryan Jia, and Kenny Huang
- Abstract要約: 我々は、ノードが自身のデータでトレーニングし、学習信頼行列に従ってパラメータの重み付け平均を定期的に実行するピアツーピア学習システムを実装した。
提案のイテレーション1で述べたように,共有パラメータを用いたピアツーピアラーニングの概念を証明するために,この戦略を用いた。
- 参考スコア(独自算出の注目度): 0.7499722271664145
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated Learning systems use a centralized server to aggregate model
updates. This is a bandwidth and resource-heavy constraint and exposes the
system to privacy concerns. We instead implement a peer to peer learning system
in which nodes train on their own data and periodically perform a weighted
average of their parameters with that of their peers according to a learned
trust matrix. So far, we have created a model client framework and have been
using this to run experiments on the proposed system using multiple virtual
nodes which in reality exist on the same computer. We used this strategy as
stated in Iteration 1 of our proposal to prove the concept of peer to peer
learning with shared parameters. We now hope to run more experiments and build
a more deployable real world system for the same.
- Abstract(参考訳): フェデレーション学習システムは、集中型サーバを使用してモデル更新を集約する。
これは帯域幅とリソース重荷の制約であり、システムはプライバシーの懸念に晒される。
代わりに、ノードが自身のデータをトレーニングし、学習した信頼マトリックスに従って各ノードのパラメータの重み付け平均を定期的に実行するピアツーピア学習システムを実装する。
これまでのところ、モデルクライアントフレームワークを作成しており、同じコンピュータ上に実際に存在する複数の仮想ノードを使用して、提案システム上で実験を実行している。
提案のイテレーション1で述べたように,この戦略を用いて,共有パラメータを用いたピアツーピア学習の概念を実証した。
より多くの実験を行い、よりデプロイ可能な現実世界システムを構築したいと考えています。
関連論文リスト
- Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z) - Optimizing Server-side Aggregation For Robust Federated Learning via
Subspace Training [80.03567604524268]
クライアント間の非IIDデータ分散と中毒攻撃は、現実世界のフェデレーション学習システムにおける2つの大きな課題である。
サーバ側集約プロセスを最適化する汎用的なアプローチであるSmartFLを提案する。
本稿では,SmartFLの収束と一般化能力に関する理論的解析を行う。
論文 参考訳(メタデータ) (2022-11-10T13:20:56Z) - FedGrad: Optimisation in Decentralised Machine Learning [0.0]
フェデレートラーニング(Federated Learning)は、機械学習モデルを分散形式でトレーニングすることを目的とした機械学習パラダイムである。
我々は、さらに別の適応型フェデレーション最適化法や、フェデレーション学習の分野でのいくつかのアイデアを提案する。
論文 参考訳(メタデータ) (2022-11-07T15:07:56Z) - Federated Stochastic Gradient Descent Begets Self-Induced Momentum [151.4322255230084]
Federated Learning(FL)は、モバイルエッジシステムに適用可能な、新興の機械学習手法である。
このような条件下での勾配降下(SGD)への走行は,大域的な集約プロセスに運動量的な項を加えるとみなすことができる。
論文 参考訳(メタデータ) (2022-02-17T02:01:37Z) - An Expectation-Maximization Perspective on Federated Learning [75.67515842938299]
フェデレーション学習は、データをデバイス上でプライベートにしながら、複数のクライアントにわたるモデルの分散トレーニングを記述する。
本稿では,サーバがクライアント固有のモデルパラメータに対して事前分布のパラメータを提供する階層的潜在変数モデルとして,サーバが設定したフェデレーション学習プロセスについて考察する。
我々は,単純なガウス先行とよく知られた期待最大化(EM)アルゴリズムのハードバージョンを用いて,そのようなモデルの学習は,フェデレーション学習環境における最も一般的なアルゴリズムであるFedAvgに対応することを示す。
論文 参考訳(メタデータ) (2021-11-19T12:58:59Z) - Multimodal Federated Learning [9.081857621783811]
IoTデバイスを備えたスマートホームなど、多くのアプリケーションでは、クライアント上のローカルデータは、さまざまなモダリティから生成される。
既存のフェデレーション学習システムは、単一のモダリティからのローカルデータのみを扱うため、システムのスケーラビリティが制限される。
本稿では,クライアント上で異なるローカルデータモダリティから共有あるいは相関表現を抽出するよう,オートエンコーダを訓練するマルチモーダル・セミ教師付きフェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-10T12:32:46Z) - Decentralized federated learning of deep neural networks on non-iid data [0.6335848702857039]
分散環境でパーソナライズされたディープラーニングモデルを学ぶことの難しさに対処する。
本稿では,PENS(Performance-Based Neighbor Selection)という手法を提案する。
PENSは強力なベースラインに比べて高い精度を達成することができる。
論文 参考訳(メタデータ) (2021-07-18T19:05:44Z) - Information-Theoretic Bounds on the Generalization Error and Privacy
Leakage in Federated Learning [96.38757904624208]
モバイルネットワーク上の機械学習アルゴリズムは、3つのカテゴリに分類される。
この研究の主な目的は、前述のすべての学習パラダイムに対する情報理論のフレームワークを提供することである。
論文 参考訳(メタデータ) (2020-05-05T21:23:45Z) - Multi-Center Federated Learning [62.57229809407692]
本稿では,フェデレート学習のための新しい多中心集約機構を提案する。
非IIDユーザデータから複数のグローバルモデルを学び、同時にユーザとセンタ間の最適なマッチングを導出する。
ベンチマークデータセットによる実験結果から,本手法はいくつかの一般的なフェデレーション学習法より優れていることが示された。
論文 参考訳(メタデータ) (2020-05-03T09:14:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。