論文の概要: Flame: Simplifying Topology Extension in Federated Learning
- arxiv url: http://arxiv.org/abs/2305.05118v2
- Date: Wed, 17 Jan 2024 17:27:10 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-18 21:38:03.636295
- Title: Flame: Simplifying Topology Extension in Federated Learning
- Title(参考訳): Flame: フェデレーション学習におけるトポロジ拡張の簡略化
- Authors: Harshit Daga, Jaemin Shin, Dhruv Garg, Ada Gavrilovska, Myungjin Lee
and Ramana Rao Kompella
- Abstract要約: Flameは、分散機械学習アプリケーションのトポロジ構成の柔軟性を提供する新しいシステムである。
Flameは、新しい高レベルの抽象化トポロジ抽象化グラフ(TAG)を通じてこれを実現している。
- 参考スコア(独自算出の注目度): 0.6158291566810599
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Distributed machine learning approaches, including a broad class of federated
learning (FL) techniques, present a number of benefits when deploying machine
learning applications over widely distributed infrastructures. The benefits are
highly dependent on the details of the underlying machine learning topology,
which specifies the functionality executed by the participating nodes, their
dependencies and interconnections. Current systems lack the flexibility and
extensibility necessary to customize the topology of a machine learning
deployment. We present Flame, a new system that provides flexibility of the
topology configuration of distributed FL applications around the specifics of a
particular deployment context, and is easily extensible to support new FL
architectures. Flame achieves this via a new high-level abstraction Topology
Abstraction Graphs (TAGs). TAGs decouple the ML application logic from the
underlying deployment details, making it possible to specialize the application
deployment with reduced development effort. Flame is released as an open source
project, and its flexibility and extensibility support a variety of topologies
and mechanisms, and can facilitate the development of new FL methodologies.
- Abstract(参考訳): 広く分散されたインフラストラクチャ上に機械学習アプリケーションをデプロイする際のメリットとして、幅広い種類のフェデレートラーニング(FL)技術を含む、分散機械学習アプローチがある。
この利点は、基盤となる機械学習トポロジの詳細に大きく依存しており、参加ノードによって実行される機能、依存関係、相互接続を指定する。
現在のシステムには、マシンラーニングデプロイメントのトポロジをカスタマイズするために必要な柔軟性と拡張性が欠けている。
本研究では,分散flアプリケーションのトポロジ構成を,特定のデプロイメントコンテキストの仕様を中心に柔軟に構成し,新たなflアーキテクチャをサポートするために容易に拡張可能なシステムであるf flameを提案する。
Flame は新しい高レベルの抽象化 Topology Abstraction Graphs (TAGs) を通じてこれを実現している。
TAGは基盤となるデプロイメントの詳細からMLアプリケーションロジックを分離するので、開発労力を削減してアプリケーションデプロイメントを専門化できる。
flameはオープンソースプロジェクトとしてリリースされており、柔軟性と拡張性は様々なトポロジーとメカニズムをサポートし、新しいfl方法論の開発を促進することができる。
関連論文リスト
- Federated Learning in Practice: Reflections and Projections [17.445826363802997]
Federated Learning(FL)は、複数のエンティティがローカルデータを交換することなく、共同で共有モデルを学ぶことができる機械学習技術である。
Google、Apple、Metaといった組織によるプロダクションシステムは、FLの現実的な適用性を実証しています。
我々は、厳密な定義よりもプライバシー原則を優先する再定義されたFLフレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-11T15:10:38Z) - Advances in APPFL: A Comprehensive and Extensible Federated Learning Framework [1.4206132527980742]
Federated Learning(FL)は、データプライバシを保持しながら協調的なモデルトレーニングを可能にする分散機械学習パラダイムである。
本稿では,統合学習のためのフレームワークおよびベンチマークスイートであるAPPFLの開発における最近の進歩について述べる。
本稿では, 通信効率, プライバシー保護, 計算性能, 資源利用など, FLの様々な側面を評価する広範な実験を通じて, APPFLの能力を実証する。
論文 参考訳(メタデータ) (2024-09-17T22:20:26Z) - Privacy-preserving design of graph neural networks with applications to
vertical federated learning [56.74455367682945]
VESPERと呼ばれるエンドツーエンドのグラフ表現学習フレームワークを提案する。
VESPERは、適切なプライバシー予算の下でスパースグラフと密度グラフの両方で高性能なGNNモデルをトレーニングすることができる。
論文 参考訳(メタデータ) (2023-10-31T15:34:59Z) - Hierarchical and Decentralised Federated Learning [3.055801139718484]
階層的フェデレーション学習は、より効率的なモデルアグリゲーションを可能にするために、従来のFLプロセスを拡張します。
パフォーマンスの向上とコスト削減に加えて,従来のFLに適さない環境にFLをデプロイすることも可能だ。
H-FLは、局所性依存とグローバルな異常なロバスト性の間のトレードオフを最適に果たすために、複数のレベルでモデルを集約し、配布することができるので、将来のFLソリューションにとって不可欠である。
論文 参考訳(メタデータ) (2023-04-28T17:06:50Z) - ModularFed: Leveraging Modularity in Federated Learning Frameworks [8.139264167572213]
本稿では,フェデレートラーニング(FL)実装の複雑さに対処する研究に焦点を当てたフレームワークを提案する。
このアーキテクチャでは、プロトコルはフレームワークのコンポーネントの設計を厳密に定義する青写真である。
我々のプロトコルはFLにおけるモジュラリティの実現を目的としており、サードパーティのプラグイン・アンド・プレイアーキテクチャと動的シミュレータをサポートしています。
論文 参考訳(メタデータ) (2022-10-31T10:21:19Z) - FederatedScope: A Comprehensive and Flexible Federated Learning Platform
via Message Passing [63.87056362712879]
我々は,メッセージ指向フレームワークを基盤とした,新しい総合的なフェデレート学習プラットフォームであるFederatedScopeを提案する。
手続き型フレームワークと比較して、提案されたメッセージ指向フレームワークは異種メッセージ交換を表現するのに柔軟である。
我々は、FederatedScopeの正確性と効率性を検証するために、提供された簡易かつ包括的なFLベンチマークについて一連の実験を行った。
論文 参考訳(メタデータ) (2022-04-11T11:24:21Z) - Efficient Split-Mix Federated Learning for On-Demand and In-Situ
Customization [107.72786199113183]
フェデレートラーニング(FL)は、複数の参加者が生データを共有せずに学習をコラボレーションするための分散ラーニングフレームワークを提供する。
本稿では, モデルサイズとロバスト性をその場でカスタマイズできる, 不均一な参加者のための新しいスプリット・ミクス・FL戦略を提案する。
論文 参考訳(メタデータ) (2022-03-18T04:58:34Z) - Edge-assisted Democratized Learning Towards Federated Analytics [67.44078999945722]
本稿では,エッジ支援型民主化学習機構であるEdge-DemLearnの階層的学習構造を示す。
また、Edge-DemLearnを柔軟なモデルトレーニングメカニズムとして検証し、リージョンに分散制御と集約の方法論を構築する。
論文 参考訳(メタデータ) (2020-12-01T11:46:03Z) - Learning Discrete Energy-based Models via Auxiliary-variable Local
Exploration [130.89746032163106]
離散構造データに対する条件付きおよび非条件付きEMMを学習するための新しいアルゴリズムであるALOEを提案する。
エネルギー関数とサンプリング器は、新しい変分型電力繰り返しにより効率よく訓練できることを示す。
本稿では、ソフトウェアテストのためのエネルギーモデルガイド付ファジィザについて、libfuzzerのようなよく設計されたファジィエンジンに匹敵する性能を実現する。
論文 参考訳(メタデータ) (2020-11-10T19:31:29Z) - From Federated to Fog Learning: Distributed Machine Learning over
Heterogeneous Wireless Networks [71.23327876898816]
フェデレートラーニング(Federated Learning)は、データを収集するノード間で処理能力を活用することによって、ネットワークエッジでMLモデルをトレーニングするテクニックとして登場した。
我々は、エッジデバイスからクラウドサーバへのノード連続体にMLモデルのトレーニングをインテリジェントに分散する、フォグラーニングと呼ばれる新しい学習パラダイムを提唱する。
論文 参考訳(メタデータ) (2020-06-07T05:11:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。