論文の概要: pfl-research: simulation framework for accelerating research in Private Federated Learning
- arxiv url: http://arxiv.org/abs/2404.06430v1
- Date: Tue, 9 Apr 2024 16:23:01 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-10 14:01:33.814977
- Title: pfl-research: simulation framework for accelerating research in Private Federated Learning
- Title(参考訳): pfl-research:Private Federated Learningにおける研究促進のためのシミュレーションフレームワーク
- Authors: Filip Granqvist, Congzheng Song, Áine Cahill, Rogier van Dalen, Martin Pelikan, Yi Sheng Chan, Xiaojun Feng, Natarajan Krishnaswami, Vojta Jina, Mona Chitnis,
- Abstract要約: pfl-researchは、Federated Learning(FL)をシミュレートする高速でモジュール化された、使いやすいPythonフレームワークである。
セットアップ、PyTorch、非ニューラルネットワークモデルをサポートし、最先端のアルゴリズムと密に統合されている。
我々は,多様な現実的なシナリオに対して,アルゴリズムの全体的な性能を評価するベンチマークスイートをリリースする。
- 参考スコア(独自算出の注目度): 6.421821657238535
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) is an emerging machine learning (ML) training paradigm where clients own their data and collaborate to train a global model, without revealing any data to the server and other participants. Researchers commonly perform experiments in a simulation environment to quickly iterate on ideas. However, existing open-source tools do not offer the efficiency required to simulate FL on larger and more realistic FL datasets. We introduce pfl-research, a fast, modular, and easy-to-use Python framework for simulating FL. It supports TensorFlow, PyTorch, and non-neural network models, and is tightly integrated with state-of-the-art privacy algorithms. We study the speed of open-source FL frameworks and show that pfl-research is 7-72$\times$ faster than alternative open-source frameworks on common cross-device setups. Such speedup will significantly boost the productivity of the FL research community and enable testing hypotheses on realistic FL datasets that were previously too resource intensive. We release a suite of benchmarks that evaluates an algorithm's overall performance on a diverse set of realistic scenarios. The code is available on GitHub at https://github.com/apple/pfl-research.
- Abstract(参考訳): Federated Learning(FL)は、クライアントがデータを所有し、サーバや他の参加者にデータを公開せずにグローバルモデルをトレーニングする、新たな機械学習(ML)トレーニングパラダイムである。
研究者は通常、アイデアをすばやく反復するためにシミュレーション環境で実験を行う。
しかし、既存のオープンソースツールは、より大きくより現実的なFLデータセット上でFLをシミュレートするために必要な効率を提供していません。
pfl-researchは、FLをシミュレートするための高速でモジュラーで使いやすいPythonフレームワークである。
TensorFlow、PyTorch、および非神経ネットワークモデルをサポートし、最先端のプライバシアルゴリズムと密に統合されている。
オープンソースFLフレームワークの速度について検討し、pfl-researchが一般的なクロスデバイスセットアップ上の代替オープンソースフレームワークよりも7-72$\times$高速であることを示す。
このようなスピードアップは、FL研究コミュニティの生産性を大幅に向上させ、以前はリソースが多すぎる現実的なFLデータセットに対する仮説のテストを可能にする。
我々は,多様な現実的なシナリオに対して,アルゴリズムの全体的な性能を評価するベンチマークスイートをリリースする。
コードはGitHubでhttps://github.com/apple/pfl-research.comで公開されている。
関連論文リスト
- A Survey on Efficient Federated Learning Methods for Foundation Model Training [62.473245910234304]
フェデレーテッド・ラーニング(FL)は、多数のクライアントにわたるプライバシー保護協調トレーニングを促進するための確立した技術となっている。
Foundation Models (FM)の後、多くのディープラーニングアプリケーションでは現実が異なる。
FLアプリケーションに対するパラメータ効率細調整(PEFT)の利点と欠点について論じる。
論文 参考訳(メタデータ) (2024-01-09T10:22:23Z) - FLGo: A Fully Customizable Federated Learning Platform [23.09038374160798]
FLGoと呼ばれる軽量なフェデレーション学習プラットフォームを提案する。
私たちのプラットフォームは、アウトオブボックスプラグインとして、40以上のベンチマーク、20以上のアルゴリズム、および2つのシステムシミュレータを提供しています。
また,並列加速度,実験トラッカ,パラメータ自動チューニングなどの実験ツールも開発している。
論文 参考訳(メタデータ) (2023-06-21T07:55:29Z) - FS-Real: Towards Real-World Cross-Device Federated Learning [60.91678132132229]
Federated Learning (FL)は、ローカルデータをアップロードすることなく、分散クライアントと協調して高品質なモデルをトレーニングすることを目的としている。
FL研究と実世界のシナリオの間には依然としてかなりのギャップがあり、主に異種デバイスの特徴とそのスケールによって引き起こされている。
本稿では,実世界横断デバイスFL,FS-Realのための効率的でスケーラブルなプロトタイピングシステムを提案する。
論文 参考訳(メタデータ) (2023-03-23T15:37:17Z) - Automated Federated Learning in Mobile Edge Networks -- Fast Adaptation
and Convergence [83.58839320635956]
フェデレートラーニング(FL)は、モバイルエッジネットワークで機械学習モデルを分散的にトレーニングするために使用することができる。
最近のFLは、モデルに依存しないメタラーニング(MAML)フレームワークで解釈されている。
本稿は,MAMLがFLにもたらすメリットと,モバイルエッジネットワーク上でのメリットの最大化について論じる。
論文 参考訳(メタデータ) (2023-03-23T02:42:10Z) - TorchFL: A Performant Library for Bootstrapping Federated Learning
Experiments [4.075095403704456]
本稿では,フェデレート学習実験をブートストラップするパフォーマンスライブラリTorchFLを紹介する。
TorchFLはPyTorchとLightningを使ってボトムアップで設計されている。
PyTorchとLightningを使用したボトムアップ設計に基づいて構築されたTorchFLは、モデル、データセット、FLアルゴリズムのための準備の整った抽象化を提供する。
論文 参考訳(メタデータ) (2022-11-01T20:31:55Z) - FLamby: Datasets and Benchmarks for Cross-Silo Federated Learning in
Realistic Healthcare Settings [51.09574369310246]
Federated Learning(FL)は、センシティブなデータを保持している複数のクライアントが協力して機械学習モデルをトレーニングできる新しいアプローチである。
本稿では,医療分野に重点を置くクロスサイロ・データセット・スイートFLambyを提案し,クロスサイロ・FLの理論と実践のギャップを埋める。
私たちのフレキシブルでモジュラーなスイートによって、研究者は簡単にデータセットをダウンロードし、結果を再現し、研究のためにさまざまなコンポーネントを再利用することができます。
論文 参考訳(メタデータ) (2022-10-10T12:17:30Z) - FL_PyTorch: optimization research simulator for federated learning [1.6114012813668934]
フェデレートラーニング(FL)は、エッジデバイスが共同で機械学習モデルを学ぶための有望なテクニックとして登場した。
FL_PyTorchはpythonで書かれたオープンソースのソフトウェアスイートで、最も人気のあるDeep Learning (DL)フレームワークであるPyTorchの上に構築されている。
論文 参考訳(メタデータ) (2022-02-07T12:18:28Z) - Multi-Center Federated Learning [62.32725938999433]
フェデレートラーニング(FL)は、分散ラーニングにおけるデータのプライバシを保護する。
単にデータにアクセスせずに、ユーザーからローカルな勾配を収集するだけだ。
本稿では,新しいマルチセンターアグリゲーション機構を提案する。
論文 参考訳(メタデータ) (2021-08-19T12:20:31Z) - Flower: A Friendly Federated Learning Research Framework [18.54638343801354]
フェデレートラーニング(FL)は、エッジデバイスが共同で共有予測モデルを学ぶための有望なテクニックとして登場した。
Flower - 大規模なFL実験を行うための新しい設備を提供することで、既存のプラットフォームと差別化を図った包括的なFLフレームワークである。
論文 参考訳(メタデータ) (2020-07-28T17:59:07Z) - FedML: A Research Library and Benchmark for Federated Machine Learning [55.09054608875831]
フェデレート・ラーニング(Federated Learning, FL)は、機械学習の分野で急速に成長している研究分野である。
既存のFLライブラリは多様なアルゴリズム開発を適切にサポートできない。
FLアルゴリズムの開発と公正な性能比較を容易にするための,オープンな研究ライブラリとベンチマークであるFedMLを紹介する。
論文 参考訳(メタデータ) (2020-07-27T13:02:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。