論文の概要: Efficient Fully Distributed Federated Learning with Adaptive Local Links
- arxiv url: http://arxiv.org/abs/2203.12281v1
- Date: Wed, 23 Mar 2022 09:03:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-24 16:37:20.835185
- Title: Efficient Fully Distributed Federated Learning with Adaptive Local Links
- Title(参考訳): 適応型局所リンクを用いた完全分散フェデレーション学習
- Authors: Evangelos Georgatos, Christos Mavrokefalidis, Kostas Berberidis
- Abstract要約: 中央サーバを必要としない完全分散拡散型学習アルゴリズムを提案する。
MNISTデータセットに分類タスクを適用することにより,提案アルゴリズムの有効性を示す。
- 参考スコア(独自算出の注目度): 1.8416014644193066
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Nowadays, data-driven, machine and deep learning approaches have provided
unprecedented performance in various complex tasks, including image
classification and object detection, and in a variety of application areas,
like autonomous vehicles, medical imaging and wireless communications.
Traditionally, such approaches have been deployed, along with the involved
datasets, on standalone devices. Recently, a shift has been observed towards
the so-called Edge Machine Learning, in which centralized architectures are
adopted that allow multiple devices with local computational and storage
resources to collaborate with the assistance of a centralized server. The
well-known federated learning approach is able to utilize such architectures by
allowing the exchange of only parameters with the server, while keeping the
datasets private to each contributing device. In this work, we propose a fully
distributed, diffusion-based learning algorithm that does not require a central
server and propose an adaptive combination rule for the cooperation of the
devices. By adopting a classification task on the MNIST dataset, the efficacy
of the proposed algorithm over corresponding counterparts is demonstrated via
the reduction of the number of collaboration rounds required to achieve an
acceptable accuracy level in non- IID dataset scenarios.
- Abstract(参考訳): 現在、データ駆動、機械学習、ディープラーニングのアプローチは、画像分類やオブジェクト検出など、さまざまな複雑なタスクや、自動運転車、医療画像、無線通信など、さまざまな応用分野において、前例のないパフォーマンスを提供している。
従来、このようなアプローチは、関連するデータセットとともに、スタンドアロンデバイスにデプロイされてきた。
最近、エッジ機械学習(Edge Machine Learning)と呼ばれる、ローカルな計算リソースとストレージリソースを備えた複数のデバイスが、集中型サーバの助けを借りてコラボレーションできるようにする、集中型アーキテクチャが採用されている。
有名な連合学習アプローチでは、各コントリビュートデバイスにデータセットをプライベートに保ちながら、パラメータのみをサーバと交換可能にすることで、このようなアーキテクチャを活用できる。
本研究では,中央サーバを必要とせず,完全に分散した拡散ベースの学習アルゴリズムを提案し,デバイス協調のための適応結合ルールを提案する。
mnistデータセットの分類タスクを採用することで、非iidデータセットシナリオにおいて許容可能な精度レベルを達成するために必要な協調ラウンド数を削減し、提案アルゴリズムの有効性を実証する。
関連論文リスト
- Coordination-free Decentralised Federated Learning on Complex Networks:
Overcoming Heterogeneity [2.6849848612544]
Federated Learning(FL)は、エッジコンピューティングシナリオで学習タスクを実行するためのフレームワークである。
本稿では,コミュニケーション効率のよい分散フェデレート学習(DFL)アルゴリズムを提案する。
我々のソリューションは、デバイスが直接隣人とのみ通信し、正確なモデルを訓練することを可能にする。
論文 参考訳(メタデータ) (2023-12-07T18:24:19Z) - Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z) - Federated Multi-Target Domain Adaptation [99.93375364579484]
フェデレートされた学習手法により、プライバシを保護しながら、分散ユーザデータ上で機械学習モデルをトレーニングすることが可能になります。
分散クライアントデータがラベル付けされず、集中型ラベル付きデータセットがサーバ上で利用可能となる、より実用的なシナリオを考えます。
本稿では,新しい課題に対処する効果的なDualAdapt法を提案する。
論文 参考訳(メタデータ) (2021-08-17T17:53:05Z) - Clustered Federated Learning via Generalized Total Variation
Minimization [83.26141667853057]
本研究では,分散ネットワーク構造を持つローカルデータセットの局所的(あるいはパーソナライズされた)モデルを学習するための最適化手法について検討する。
我々の主要な概念的貢献は、総変動最小化(GTV)としてフェデレーション学習を定式化することである。
私たちのアルゴリズムの主な貢献は、完全に分散化されたフェデレーション学習アルゴリズムです。
論文 参考訳(メタデータ) (2021-05-26T18:07:19Z) - Exploiting Shared Representations for Personalized Federated Learning [54.65133770989836]
本稿では,クライアント間の共有データ表現と,クライアント毎のユニークなローカルヘッダを学習するための,新しいフェデレーション学習フレームワークとアルゴリズムを提案する。
提案アルゴリズムは, クライアント間の分散計算能力を利用して, 表現の更新毎に低次元の局所パラメータに対して, 多数の局所更新を行う。
この結果は、データ分布間の共有低次元表現を学習することを目的とした、幅広い種類の問題に対するフェデレーション学習以上の関心を持っている。
論文 参考訳(メタデータ) (2021-02-14T05:36:25Z) - Adaptive Scheduling for Machine Learning Tasks over Networks [1.4271989597349055]
本論文では, 線形回帰タスクに資源を効率的に割り当てるアルゴリズムを, データのインフォマティビティ性を利用して検討する。
アルゴリズムは、信頼性の高い性能保証による学習タスクの適応スケジューリングを可能にする。
論文 参考訳(メタデータ) (2021-01-25T10:59:00Z) - Toward Multiple Federated Learning Services Resource Sharing in Mobile
Edge Networks [88.15736037284408]
本稿では,マルチアクセスエッジコンピューティングサーバにおいて,複数のフェデレーション付き学習サービスの新たなモデルについて検討する。
共同資源最適化とハイパーラーニング率制御の問題,すなわちMS-FEDLを提案する。
シミュレーションの結果,提案アルゴリズムの収束性能を実証した。
論文 参考訳(メタデータ) (2020-11-25T01:29:41Z) - Dif-MAML: Decentralized Multi-Agent Meta-Learning [54.39661018886268]
我々は,MAML や Dif-MAML と呼ばれる協調型マルチエージェントメタ学習アルゴリズムを提案する。
提案手法により, エージェントの集合が線形速度で合意に達し, 集約MAMLの定常点に収束できることを示す。
シミュレーションの結果は従来の非協調的な環境と比較して理論的な結果と優れた性能を示している。
論文 参考訳(メタデータ) (2020-10-06T16:51:09Z) - IBM Federated Learning: an Enterprise Framework White Paper V0.1 [28.21579297214125]
Federated Learning(FL)は、トレーニングデータを単一の場所で集中化せずに機械学習を実行するアプローチである。
このフレームワークは、最も一般的な機械学習ライブラリに対する従来のアプローチと同様に、Deep Neural Networksにも適用される。
論文 参考訳(メタデータ) (2020-07-22T05:32:00Z) - Federated Learning with Cooperating Devices: A Consensus Approach for
Massive IoT Networks [8.456633924613456]
分散システムにおける機械学習モデルをトレーニングするための新しいパラダイムとして、フェデレートラーニング(FL)が登場している。
提案するFLアルゴリズムは,ネットワーク内のデータ操作を行うデバイスとの協調を利用して,完全に分散された(あるいはサーバレス)学習手法を提案する。
このアプローチは、分散接続とコンピューティングを特徴とするネットワークを超えて、5G 内で FL を統合するための基盤となる。
論文 参考訳(メタデータ) (2019-12-27T15:16:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。