論文の概要: Scatterbrained: A flexible and expandable pattern for decentralized
machine learning
- arxiv url: http://arxiv.org/abs/2112.07718v1
- Date: Tue, 14 Dec 2021 19:39:35 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-17 06:55:41.298115
- Title: Scatterbrained: A flexible and expandable pattern for decentralized
machine learning
- Title(参考訳): Scatterbrained: 分散機械学習のためのフレキシブルで拡張可能なパターン
- Authors: Miller Wilt, Jordan K. Matelsky, Andrew S. Gearhart
- Abstract要約: フェデレーション機械学習は、複数のデバイス間でデータを交換することなくモデルをトレーニングするテクニックである。
我々は、フェデレートされた学習パターンを分散化するための柔軟なフレームワークを提案し、PyTorchと互換性のあるオープンソースのリファレンス実装を提供する。
- 参考スコア(独自算出の注目度): 1.2891210250935146
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated machine learning is a technique for training a model across
multiple devices without exchanging data between them. Because data remains
local to each compute node, federated learning is well-suited for use-cases in
fields where data is carefully controlled, such as medicine, or in domains with
bandwidth constraints. One weakness of this approach is that most federated
learning tools rely upon a central server to perform workload delegation and to
produce a single shared model. Here, we suggest a flexible framework for
decentralizing the federated learning pattern, and provide an open-source,
reference implementation compatible with PyTorch.
- Abstract(参考訳): フェデレーション機械学習は、複数のデバイス間でデータを交換することなくモデルをトレーニングするテクニックである。
データは各計算ノードにローカルに保持されるため、フェデレーション学習は、医学などのデータの注意深く制御された分野や帯域制限のある領域のユースケースに適している。
このアプローチの弱点のひとつは、ほとんどのフェデレーション学習ツールが中央サーバに依存して、ワークロードのデリゲーションを実行し、単一の共有モデルを生成することだ。
本稿では,連合学習パターンを分散化するための柔軟なフレームワークを提案し,pytorchと互換性のあるオープンソースリファレンス実装を提供する。
関連論文リスト
- Update Selective Parameters: Federated Machine Unlearning Based on Model Explanation [46.86767774669831]
モデル説明の概念に基づく、より効率的で効率的なフェデレーション・アンラーニング・スキームを提案する。
我々は、未学習のデータに対して、すでに訓練済みのモデルの中で最も影響力のあるチャネルを選択します。
論文 参考訳(メタデータ) (2024-06-18T11:43:20Z) - Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z) - FedGrad: Optimisation in Decentralised Machine Learning [0.0]
フェデレートラーニング(Federated Learning)は、機械学習モデルを分散形式でトレーニングすることを目的とした機械学習パラダイムである。
我々は、さらに別の適応型フェデレーション最適化法や、フェデレーション学習の分野でのいくつかのアイデアを提案する。
論文 参考訳(メタデータ) (2022-11-07T15:07:56Z) - Confederated Learning: Federated Learning with Decentralized Edge
Servers [42.766372620288585]
Federated Learning(FL)は、中央サーバでデータを集約することなく、モデルトレーニングを達成可能な、新興の機械学習パラダイムである。
本稿では,各サーバが個々のデバイスに接続されたConFederated Learning(CFL)フレームワークを提案する。
提案アルゴリズムはランダムなスケジューリングポリシを用いて,各イテレーションで各サーバにアクセスするデバイスサブセットをランダムに選択する。
論文 参考訳(メタデータ) (2022-05-30T07:56:58Z) - FedILC: Weighted Geometric Mean and Invariant Gradient Covariance for
Federated Learning on Non-IID Data [69.0785021613868]
フェデレートラーニング(Federated Learning)とは、ローカルに計算されたパラメータの更新を、空間的に分散されたクライアントサイロからトレーニングデータに集約することで、共有サーバモデルによる学習を可能にする分散機械学習アプローチである。
本研究では, 勾配の共分散とヘッセンの幾何学的平均を利用して, シロ間およびシロ内成分の両方を捕捉するフェデレート不変学習一貫性(FedILC)アプローチを提案する。
これは医療、コンピュータビジョン、IoT(Internet of Things)といった様々な分野に関係している。
論文 参考訳(メタデータ) (2022-05-19T03:32:03Z) - FLHub: a Federated Learning model sharing service [0.7614628596146599]
機械学習モデルの共有サービスとしてフェデレートラーニングハブ(FLHub)を提案する。
FLHubを使えば、GitHubと同じように、他の開発者が開発したモデルをアップロード、ダウンロード、コントリビュートすることができる。
我々は、フォークモデルが既存のモデルよりも速くトレーニングを完了し、各フェデレートラウンドで学習がより高速に進行できることを実証した。
論文 参考訳(メタデータ) (2022-02-14T06:02:55Z) - RelaySum for Decentralized Deep Learning on Heterogeneous Data [71.36228931225362]
分散機械学習では、労働者はローカルデータのモデル更新を計算する。
労働者は中心的な調整なしに隣人とのみ通信するため、これらの更新はネットワーク上で徐々に伝播する。
このパラダイムは、全接続のないネットワーク上での分散トレーニングを可能にし、データのプライバシ保護と、データセンタでの分散トレーニングの通信コストの削減を支援する。
論文 参考訳(メタデータ) (2021-10-08T14:55:32Z) - The Effect of Training Parameters and Mechanisms on Decentralized
Federated Learning based on MNIST Dataset [0.0]
分散フェデレートラーニング(DFL)の概念を紹介する。
すべての実験は、MNISTの手書き桁データセット上で実行される。
モデルの重み間のばらつきが大きすぎる場合、トレーニングの失敗を観察します。
論文 参考訳(メタデータ) (2021-08-07T19:37:43Z) - Clustered Federated Learning via Generalized Total Variation
Minimization [83.26141667853057]
本研究では,分散ネットワーク構造を持つローカルデータセットの局所的(あるいはパーソナライズされた)モデルを学習するための最適化手法について検討する。
我々の主要な概念的貢献は、総変動最小化(GTV)としてフェデレーション学習を定式化することである。
私たちのアルゴリズムの主な貢献は、完全に分散化されたフェデレーション学習アルゴリズムです。
論文 参考訳(メタデータ) (2021-05-26T18:07:19Z) - Multi-Center Federated Learning [62.57229809407692]
本稿では,フェデレート学習のための新しい多中心集約機構を提案する。
非IIDユーザデータから複数のグローバルモデルを学び、同時にユーザとセンタ間の最適なマッチングを導出する。
ベンチマークデータセットによる実験結果から,本手法はいくつかの一般的なフェデレーション学習法より優れていることが示された。
論文 参考訳(メタデータ) (2020-05-03T09:14:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。