論文の概要: FLUTE: A Scalable, Extensible Framework for High-Performance Federated
Learning Simulations
- arxiv url: http://arxiv.org/abs/2203.13789v1
- Date: Fri, 25 Mar 2022 17:15:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-28 14:11:28.693651
- Title: FLUTE: A Scalable, Extensible Framework for High-Performance Federated
Learning Simulations
- Title(参考訳): FLUTE: 高性能フェデレーション学習シミュレーションのためのスケーラブルで拡張可能なフレームワーク
- Authors: Dimitrios Dimitriadis, Mirian Hipolito Garcia, Daniel Madrigal Diaz,
Andre Manoel, Robert Sim
- Abstract要約: FLUTE(Federated Learning Utilities and Tools for Experimentation)は、フェデレートラーニング研究とオフラインシミュレーションのための高性能なオープンソースプラットフォームである。
本稿では、FLUTEのアーキテクチャを説明し、任意のフェデレートされたモデリングスキームを実現する。
本稿では,テキスト予測と音声認識の一連の実験により,プラットフォームの有効性を実証する。
- 参考スコア(独自算出の注目度): 12.121967768185684
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper we introduce "Federated Learning Utilities and Tools for
Experimentation" (FLUTE), a high-performance open source platform for federated
learning research and offline simulations. The goal of FLUTE is to enable rapid
prototyping and simulation of new federated learning algorithms at scale,
including novel optimization, privacy, and communications strategies. We
describe the architecture of FLUTE, enabling arbitrary federated modeling
schemes to be realized, we compare the platform with other state-of-the-art
platforms, and we describe available features of FLUTE for experimentation in
core areas of active research, such as optimization, privacy and scalability.
We demonstrate the effectiveness of the platform with a series of experiments
for text prediction and speech recognition, including the addition of
differential privacy, quantization, scaling and a variety of optimization and
federation approaches.
- Abstract(参考訳): 本稿では,連合学習研究とオフラインシミュレーションのための高性能オープンソースプラットフォームflute(federated learning utilities and tools for experimentation)について紹介する。
FLUTEの目標は、新しい最適化、プライバシ、コミュニケーション戦略を含む、新しいフェデレーション学習アルゴリズムの高速なプロトタイピングとシミュレーションを可能にすることである。
我々は、FLUTEのアーキテクチャを説明し、任意のフェデレートされたモデリングスキームを実現し、プラットフォームを他の最先端プラットフォームと比較し、最適化、プライバシ、スケーラビリティなど、アクティブな研究のコア領域における実験に使えるFLUTEの特徴について述べる。
本稿では,テキスト予測と音声認識の一連の実験において,差分プライバシーの追加,量子化,スケーリング,さまざまな最適化とフェデレーションアプローチなど,プラットフォームの有効性を実証する。
関連論文リスト
- Advances in APPFL: A Comprehensive and Extensible Federated Learning Framework [1.4206132527980742]
Federated Learning(FL)は、データプライバシを保持しながら協調的なモデルトレーニングを可能にする分散機械学習パラダイムである。
本稿では,統合学習のためのフレームワークおよびベンチマークスイートであるAPPFLの開発における最近の進歩について述べる。
本稿では, 通信効率, プライバシー保護, 計算性能, 資源利用など, FLの様々な側面を評価する広範な実験を通じて, APPFLの能力を実証する。
論文 参考訳(メタデータ) (2024-09-17T22:20:26Z) - Federated Multi-View Synthesizing for Metaverse [52.59476179535153]
メタバースは没入型エンターテイメント、教育、ビジネスアプリケーションを提供すると期待されている。
無線ネットワーク上のバーチャルリアリティ(VR)伝送は、データと計算集約である。
我々は,メタバースにおける無線コンテンツ配信のために,効率的な合成,記憶,通信資源を提供する,新しい多視点合成フレームワークを開発した。
論文 参考訳(メタデータ) (2023-12-18T13:51:56Z) - UNIDEAL: Curriculum Knowledge Distillation Federated Learning [17.817181326740698]
フェデレートラーニング(FL)は、複数のクライアント間で協調学習を可能にする、有望なアプローチとして登場した。
本稿では,ドメイン横断シナリオの課題に対処するための新しいFLアルゴリズムであるUNIを提案する。
この結果から,UNIはモデル精度と通信効率の両面において優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2023-09-16T11:30:29Z) - Adaptive Feature Fusion: Enhancing Generalization in Deep Learning
Models [0.0]
本稿では,ディープラーニングモデルの一般化を促進するために,アダプティブ・フィーチャー・フュージョン(Adaptive Feature Fusion, AFF)を提案する。
AFFは、基礎となるデータ特性とモデル要件に基づいて、機能を適応的にフューズすることができる。
この分析は、一般化能力の向上におけるAFFの有効性を示し、様々なタスクやアプリケーションのパフォーマンスを改善した。
論文 参考訳(メタデータ) (2023-04-04T21:41:38Z) - FS-Real: Towards Real-World Cross-Device Federated Learning [60.91678132132229]
Federated Learning (FL)は、ローカルデータをアップロードすることなく、分散クライアントと協調して高品質なモデルをトレーニングすることを目的としている。
FL研究と実世界のシナリオの間には依然としてかなりのギャップがあり、主に異種デバイスの特徴とそのスケールによって引き起こされている。
本稿では,実世界横断デバイスFL,FS-Realのための効率的でスケーラブルなプロトタイピングシステムを提案する。
論文 参考訳(メタデータ) (2023-03-23T15:37:17Z) - FederatedScope: A Comprehensive and Flexible Federated Learning Platform
via Message Passing [63.87056362712879]
我々は,メッセージ指向フレームワークを基盤とした,新しい総合的なフェデレート学習プラットフォームであるFederatedScopeを提案する。
手続き型フレームワークと比較して、提案されたメッセージ指向フレームワークは異種メッセージ交換を表現するのに柔軟である。
我々は、FederatedScopeの正確性と効率性を検証するために、提供された簡易かつ包括的なFLベンチマークについて一連の実験を行った。
論文 参考訳(メタデータ) (2022-04-11T11:24:21Z) - Efficient Split-Mix Federated Learning for On-Demand and In-Situ
Customization [107.72786199113183]
フェデレートラーニング(FL)は、複数の参加者が生データを共有せずに学習をコラボレーションするための分散ラーニングフレームワークを提供する。
本稿では, モデルサイズとロバスト性をその場でカスタマイズできる, 不均一な参加者のための新しいスプリット・ミクス・FL戦略を提案する。
論文 参考訳(メタデータ) (2022-03-18T04:58:34Z) - A Field Guide to Federated Optimization [161.3779046812383]
フェデレートされた学習と分析は、分散化されたデータからモデル(あるいは統計)を協調的に学習するための分散アプローチである。
本稿では、フェデレート最適化アルゴリズムの定式化、設計、評価、分析に関する勧告とガイドラインを提供する。
論文 参考訳(メタデータ) (2021-07-14T18:09:08Z) - FedScale: Benchmarking Model and System Performance of Federated
Learning [4.1617240682257925]
FedScaleは、連邦学習(FL)研究のための、挑戦的で現実的なベンチマークデータセットのセットである。
FedScaleはオープンソースで、寛容なライセンスを持ち、積極的にメンテナンスされている。
論文 参考訳(メタデータ) (2021-05-24T15:55:27Z) - Edge-assisted Democratized Learning Towards Federated Analytics [67.44078999945722]
本稿では,エッジ支援型民主化学習機構であるEdge-DemLearnの階層的学習構造を示す。
また、Edge-DemLearnを柔軟なモデルトレーニングメカニズムとして検証し、リージョンに分散制御と集約の方法論を構築する。
論文 参考訳(メタデータ) (2020-12-01T11:46:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。