論文の概要: TorchFL: A Performant Library for Bootstrapping Federated Learning
Experiments
- arxiv url: http://arxiv.org/abs/2211.00735v1
- Date: Tue, 1 Nov 2022 20:31:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-03 14:49:21.790322
- Title: TorchFL: A Performant Library for Bootstrapping Federated Learning
Experiments
- Title(参考訳): TorchFL:フェデレーション学習実験をブートストラップするパフォーマンスライブラリ
- Authors: Vivek Khimani and Shahin Jabbari
- Abstract要約: 本稿では,フェデレート学習実験をブートストラップするパフォーマンスライブラリTorchFLを紹介する。
TorchFLはPyTorchとLightningを使ってボトムアップで設計されている。
PyTorchとLightningを使用したボトムアップ設計に基づいて構築されたTorchFLは、モデル、データセット、FLアルゴリズムのための準備の整った抽象化を提供する。
- 参考スコア(独自算出の注目度): 4.075095403704456
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: With the increased legislation around data privacy, federated learning (FL)
has emerged as a promising technique that allows the clients (end-user) to
collaboratively train deep learning (DL) models without transferring and
storing the data in a centralized, third-party server. Despite the theoretical
success, FL is yet to be adopted in real-world systems due to the hardware,
computing, and various infrastructure constraints presented by the edge and
mobile devices of the clients. As a result, simulated datasets, models, and
experiments are heavily used by the FL research community to validate their
theories and findings. We introduce TorchFL, a performant library for (i)
bootstrapping the FL experiments, (ii) executing them using various hardware
accelerators, (iii) profiling the performance, and (iv) logging the overall and
agent-specific results on the go. Being built on a bottom-up design using
PyTorch and Lightning, TorchFL provides ready-to-use abstractions for models,
datasets, and FL algorithms, while allowing the developers to customize them as
and when required.
- Abstract(参考訳): データプライバシに関する法律の強化により、フェデレートド・ラーニング(FL)は、クライアント(エンドユーザ)が、データを集中型のサードパーティサーバに転送、保存することなく、協調的にディープラーニング(DL)モデルをトレーニングできる有望な技術として登場した。
理論的な成功にもかかわらず、FLはハードウェア、コンピューティング、およびクライアントのエッジとモバイルデバイスによって提示される様々なインフラストラクチャ制約のため、現実世界のシステムではまだ採用されていない。
その結果、シミュレーションされたデータセット、モデル、実験は、FL研究コミュニティによってその理論や研究結果を検証するために多用されている。
私たちはパフォーマンスライブラリTorchFLを紹介します。
(i)FL実験のブートストラップ
(ii)各種ハードウェアアクセラレータを用いて実行すること。
(iii)性能のプロファイリング及び
(iv)goの全体およびエージェント固有の結果をログする。
PyTorchとLightningを使用してボトムアップ設計上に構築されたTorchFLは、モデル、データセット、FLアルゴリズムのための準備の整った抽象化を提供し、開発者は必要に応じてカスタマイズできる。
関連論文リスト
- Stalactite: Toolbox for Fast Prototyping of Vertical Federated Learning Systems [37.11550251825938]
本稿では,VFL(Vertical Federated Learning)システムのためのオープンソースのフレームワークであるemphStalactiteを紹介する。
VFLはデータサンプルが複数のデータ所有者にまたがる機能によって分割されるFLの一種である。
実世界のレコメンデーションデータセットでその使い方を実証する。
論文 参考訳(メタデータ) (2024-09-23T21:29:03Z) - pfl-research: simulation framework for accelerating research in Private Federated Learning [6.421821657238535]
pfl-researchは、Federated Learning(FL)をシミュレートする高速でモジュール化された、使いやすいPythonフレームワークである。
セットアップ、PyTorch、非ニューラルネットワークモデルをサポートし、最先端のアルゴリズムと密に統合されている。
我々は,多様な現実的なシナリオに対して,アルゴリズムの全体的な性能を評価するベンチマークスイートをリリースする。
論文 参考訳(メタデータ) (2024-04-09T16:23:01Z) - Federated Fine-Tuning of LLMs on the Very Edge: The Good, the Bad, the Ugly [62.473245910234304]
本稿では,最新のエッジコンピューティングシステムにおいて,Large Language Modelsをどのように導入できるかを,ハードウェア中心のアプローチで検討する。
マイクロレベルのハードウェアベンチマークを行い、FLOPモデルと最先端のデータセンターGPUを比較し、現実的な条件下でのネットワーク利用について検討する。
論文 参考訳(メタデータ) (2023-10-04T20:27:20Z) - FS-Real: Towards Real-World Cross-Device Federated Learning [60.91678132132229]
Federated Learning (FL)は、ローカルデータをアップロードすることなく、分散クライアントと協調して高品質なモデルをトレーニングすることを目的としている。
FL研究と実世界のシナリオの間には依然としてかなりのギャップがあり、主に異種デバイスの特徴とそのスケールによって引き起こされている。
本稿では,実世界横断デバイスFL,FS-Realのための効率的でスケーラブルなプロトタイピングシステムを提案する。
論文 参考訳(メタデータ) (2023-03-23T15:37:17Z) - NVIDIA FLARE: Federated Learning from Simulation to Real-World [11.490933081543787]
私たちはNVIDIA FLAREをオープンソース開発キット(SDK)として開発しました。
SDKには最先端のFLアルゴリズムとフェデレートされた機械学習アプローチのためのソリューションが含まれている。
論文 参考訳(メタデータ) (2022-10-24T14:30:50Z) - FLamby: Datasets and Benchmarks for Cross-Silo Federated Learning in
Realistic Healthcare Settings [51.09574369310246]
Federated Learning(FL)は、センシティブなデータを保持している複数のクライアントが協力して機械学習モデルをトレーニングできる新しいアプローチである。
本稿では,医療分野に重点を置くクロスサイロ・データセット・スイートFLambyを提案し,クロスサイロ・FLの理論と実践のギャップを埋める。
私たちのフレキシブルでモジュラーなスイートによって、研究者は簡単にデータセットをダウンロードし、結果を再現し、研究のためにさまざまなコンポーネントを再利用することができます。
論文 参考訳(メタデータ) (2022-10-10T12:17:30Z) - Online Data Selection for Federated Learning with Limited Storage [53.46789303416799]
ネットワークデバイス間での分散機械学習を実現するために、フェデレートラーニング(FL)が提案されている。
デバイス上のストレージがFLの性能に与える影響はまだ調査されていない。
本研究では,デバイス上のストレージを限定したFLのオンラインデータ選択について検討する。
論文 参考訳(メタデータ) (2022-09-01T03:27:33Z) - FL_PyTorch: optimization research simulator for federated learning [1.6114012813668934]
フェデレートラーニング(FL)は、エッジデバイスが共同で機械学習モデルを学ぶための有望なテクニックとして登場した。
FL_PyTorchはpythonで書かれたオープンソースのソフトウェアスイートで、最も人気のあるDeep Learning (DL)フレームワークであるPyTorchの上に構築されている。
論文 参考訳(メタデータ) (2022-02-07T12:18:28Z) - Mobility-Aware Cluster Federated Learning in Hierarchical Wireless
Networks [81.83990083088345]
我々は,無線ネットワークにおける階層型フェデレーション学習(HFL)アルゴリズムを特徴付ける理論モデルを開発した。
分析の結果,HFLの学習性能は,ハイモービル利用者の学習能力が著しく低下していることが判明した。
これらの問題を回避するため,我々はMACFLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-08-20T10:46:58Z) - Flower: A Friendly Federated Learning Research Framework [18.54638343801354]
フェデレートラーニング(FL)は、エッジデバイスが共同で共有予測モデルを学ぶための有望なテクニックとして登場した。
Flower - 大規模なFL実験を行うための新しい設備を提供することで、既存のプラットフォームと差別化を図った包括的なFLフレームワークである。
論文 参考訳(メタデータ) (2020-07-28T17:59:07Z) - FedML: A Research Library and Benchmark for Federated Machine Learning [55.09054608875831]
フェデレート・ラーニング(Federated Learning, FL)は、機械学習の分野で急速に成長している研究分野である。
既存のFLライブラリは多様なアルゴリズム開発を適切にサポートできない。
FLアルゴリズムの開発と公正な性能比較を容易にするための,オープンな研究ライブラリとベンチマークであるFedMLを紹介する。
論文 参考訳(メタデータ) (2020-07-27T13:02:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。