論文の概要: Federated Learning Operations Made Simple with Flame
- arxiv url: http://arxiv.org/abs/2305.05118v1
- Date: Tue, 9 May 2023 01:34:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-10 19:50:19.016077
- Title: Federated Learning Operations Made Simple with Flame
- Title(参考訳): 火炎放射器を用いたフェデレーション学習
- Authors: Harshit Daga, Jaemin Shin, Dhruv Garg, Ada Gavrilovska, Myungjin Lee
and Ramana Rao Kompella
- Abstract要約: 私たちは、Topology Abstraction Graphs(TAG)をサポートする最初のシステムであるFlameを紹介します。
TAGは、基盤となるデプロイメントの詳細からMLアプリケーションロジックを分離することで、アプリケーションのデプロイメントを専門化することができる。
- 参考スコア(独自算出の注目度): 0.5545791216381867
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Distributed machine learning approaches, including a broad class of federated
learning techniques, present a number of benefits when deploying machine
learning applications over widely distributed infrastructures. To realize the
expected benefits, however, introduces substantial operational challenges due
to required application and configuration-level changes related to
deployment-specific details. Such complexities can be greatly reduced by
introducing higher-level abstractions -- role and channel -- using which
federated learning applications are described as Topology Abstraction Graphs
(TAGs). TAGs decouple the ML application logic from the underlying deployment
details, making it possible to specialize the application deployment, thus
reducing development effort and paving the way for improved automation and
tuning. We present Flame, the first system that supports these abstractions,
and demonstrate its benefits for several use cases.
- Abstract(参考訳): 分散機械学習のアプローチは、幅広い種類の連合学習技術を含むが、広く分散されたインフラ上に機械学習アプリケーションをデプロイする場合、多くの利点をもたらす。
しかし、期待されるメリットを実現するために、必要なアプリケーションやデプロイメント固有の詳細に関する構成レベルの変更によって、運用上の大きな課題が発生します。
このような複雑さは、連合学習アプリケーションがトポロジー抽象グラフ(tags)として記述されるような、より高いレベルの抽象化 -- ロールとチャネル -- を導入することで大幅に低減することができる。
TAGは、MLアプリケーションロジックを基盤となるデプロイメントの詳細から切り離し、アプリケーションのデプロイメントを専門にすることで、開発労力を削減し、自動化とチューニングを改善するための道を開く。
これらの抽象化をサポートする最初のシステムであるfremeを紹介し,そのメリットをいくつかのユースケースで実証する。
関連論文リスト
- Federated Learning in Practice: Reflections and Projections [17.445826363802997]
Federated Learning(FL)は、複数のエンティティがローカルデータを交換することなく、共同で共有モデルを学ぶことができる機械学習技術である。
Google、Apple、Metaといった組織によるプロダクションシステムは、FLの現実的な適用性を実証しています。
我々は、厳密な定義よりもプライバシー原則を優先する再定義されたFLフレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-11T15:10:38Z) - Advances in APPFL: A Comprehensive and Extensible Federated Learning Framework [1.4206132527980742]
Federated Learning(FL)は、データプライバシを保持しながら協調的なモデルトレーニングを可能にする分散機械学習パラダイムである。
本稿では,統合学習のためのフレームワークおよびベンチマークスイートであるAPPFLの開発における最近の進歩について述べる。
本稿では, 通信効率, プライバシー保護, 計算性能, 資源利用など, FLの様々な側面を評価する広範な実験を通じて, APPFLの能力を実証する。
論文 参考訳(メタデータ) (2024-09-17T22:20:26Z) - Privacy-preserving design of graph neural networks with applications to
vertical federated learning [56.74455367682945]
VESPERと呼ばれるエンドツーエンドのグラフ表現学習フレームワークを提案する。
VESPERは、適切なプライバシー予算の下でスパースグラフと密度グラフの両方で高性能なGNNモデルをトレーニングすることができる。
論文 参考訳(メタデータ) (2023-10-31T15:34:59Z) - Hierarchical and Decentralised Federated Learning [3.055801139718484]
階層的フェデレーション学習は、より効率的なモデルアグリゲーションを可能にするために、従来のFLプロセスを拡張します。
パフォーマンスの向上とコスト削減に加えて,従来のFLに適さない環境にFLをデプロイすることも可能だ。
H-FLは、局所性依存とグローバルな異常なロバスト性の間のトレードオフを最適に果たすために、複数のレベルでモデルを集約し、配布することができるので、将来のFLソリューションにとって不可欠である。
論文 参考訳(メタデータ) (2023-04-28T17:06:50Z) - ModularFed: Leveraging Modularity in Federated Learning Frameworks [8.139264167572213]
本稿では,フェデレートラーニング(FL)実装の複雑さに対処する研究に焦点を当てたフレームワークを提案する。
このアーキテクチャでは、プロトコルはフレームワークのコンポーネントの設計を厳密に定義する青写真である。
我々のプロトコルはFLにおけるモジュラリティの実現を目的としており、サードパーティのプラグイン・アンド・プレイアーキテクチャと動的シミュレータをサポートしています。
論文 参考訳(メタデータ) (2022-10-31T10:21:19Z) - FederatedScope: A Comprehensive and Flexible Federated Learning Platform
via Message Passing [63.87056362712879]
我々は,メッセージ指向フレームワークを基盤とした,新しい総合的なフェデレート学習プラットフォームであるFederatedScopeを提案する。
手続き型フレームワークと比較して、提案されたメッセージ指向フレームワークは異種メッセージ交換を表現するのに柔軟である。
我々は、FederatedScopeの正確性と効率性を検証するために、提供された簡易かつ包括的なFLベンチマークについて一連の実験を行った。
論文 参考訳(メタデータ) (2022-04-11T11:24:21Z) - Efficient Split-Mix Federated Learning for On-Demand and In-Situ
Customization [107.72786199113183]
フェデレートラーニング(FL)は、複数の参加者が生データを共有せずに学習をコラボレーションするための分散ラーニングフレームワークを提供する。
本稿では, モデルサイズとロバスト性をその場でカスタマイズできる, 不均一な参加者のための新しいスプリット・ミクス・FL戦略を提案する。
論文 参考訳(メタデータ) (2022-03-18T04:58:34Z) - Edge-assisted Democratized Learning Towards Federated Analytics [67.44078999945722]
本稿では,エッジ支援型民主化学習機構であるEdge-DemLearnの階層的学習構造を示す。
また、Edge-DemLearnを柔軟なモデルトレーニングメカニズムとして検証し、リージョンに分散制御と集約の方法論を構築する。
論文 参考訳(メタデータ) (2020-12-01T11:46:03Z) - Learning Discrete Energy-based Models via Auxiliary-variable Local
Exploration [130.89746032163106]
離散構造データに対する条件付きおよび非条件付きEMMを学習するための新しいアルゴリズムであるALOEを提案する。
エネルギー関数とサンプリング器は、新しい変分型電力繰り返しにより効率よく訓練できることを示す。
本稿では、ソフトウェアテストのためのエネルギーモデルガイド付ファジィザについて、libfuzzerのようなよく設計されたファジィエンジンに匹敵する性能を実現する。
論文 参考訳(メタデータ) (2020-11-10T19:31:29Z) - From Federated to Fog Learning: Distributed Machine Learning over
Heterogeneous Wireless Networks [71.23327876898816]
フェデレートラーニング(Federated Learning)は、データを収集するノード間で処理能力を活用することによって、ネットワークエッジでMLモデルをトレーニングするテクニックとして登場した。
我々は、エッジデバイスからクラウドサーバへのノード連続体にMLモデルのトレーニングをインテリジェントに分散する、フォグラーニングと呼ばれる新しい学習パラダイムを提唱する。
論文 参考訳(メタデータ) (2020-06-07T05:11:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。