論文の概要: OpenFL: An open-source framework for Federated Learning
- arxiv url: http://arxiv.org/abs/2105.06413v1
- Date: Thu, 13 May 2021 16:40:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-14 13:45:48.879167
- Title: OpenFL: An open-source framework for Federated Learning
- Title(参考訳): OpenFL:フェデレートラーニングのためのオープンソースフレームワーク
- Authors: G Anthony Reina, Alexey Gruzdev, Patrick Foley, Olga Perepelkina,
Mansi Sharma, Igor Davidyuk, Ilya Trushkin, Maksim Radionov, Aleksandr
Mokrov, Dmitry Agapov, Jason Martin, Brandon Edwards, Micah J. Sheller,
Sarthak Pati, Prakash Narayana Moorthy, Shih-han Wang, Prashant Shah,
Spyridon Bakas
- Abstract要約: Federated Learning(FL)は、組織が機密データを共有せずに機械学習(ML)プロジェクトに協力できる計算パラダイムである。
OpenFLは、FLのデータプライベート共同学習パラダイムを使用してMLアルゴリズムを訓練するためのオープンソースのフレームワークです。
- 参考スコア(独自算出の注目度): 41.03632020180591
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) is a computational paradigm that enables
organizations to collaborate on machine learning (ML) projects without sharing
sensitive data, such as, patient records, financial data, or classified
secrets. Open Federated Learning (OpenFL https://github.com/intel/openfl) is an
open-source framework for training ML algorithms using the data-private
collaborative learning paradigm of FL. OpenFL works with training pipelines
built with both TensorFlow and PyTorch, and can be easily extended to other ML
and deep learning frameworks. Here, we summarize the motivation and development
characteristics of OpenFL, with the intention of facilitating its application
to existing ML model training in a production environment. Finally, we describe
the first use of the OpenFL framework to train consensus ML models in a
consortium of international healthcare organizations, as well as how it
facilitates the first computational competition on FL.
- Abstract(参考訳): Federated Learning(FL)は、機械学習(ML)プロジェクトで、患者記録、財務データ、機密情報などの機密データを共有せずに協力することを可能にする計算パラダイムである。
Open Federated Learning (OpenFL https://github.com/intel/openfl) は、FLのデータプライベートな協調学習パラダイムを使用してMLアルゴリズムをトレーニングするオープンソースフレームワークである。
openflはtensorflowとpytorchの両方で構築されたトレーニングパイプラインで動作し、他のmlおよびディープラーニングフレームワークにも容易に拡張することができる。
本稿では、実運用環境における既存のMLモデルトレーニングへの適用を促進することを目的として、OpenFLのモチベーションと開発特性を要約する。
最後に、国際医療機関のコンソーシアムにおけるコンセンサスMLモデルをトレーニングするためのOpenFLフレームワークの最初の使用と、それがFLにおける最初の計算競争を促進する方法について述べる。
関連論文リスト
- LanFL: Differentially Private Federated Learning with Large Language Models using Synthetic Samples [11.955062839855334]
Federated Learning(FL)は、協調的なプライバシ保護機械学習フレームワークである。
数十億から数十億のパラメータを持つ最近の強力な大規模言語モデル(LLM)の出現は、従来のFLメソッドの単純な適用を非現実的にしている。
本稿では,LanFL という新しい LLM スキームを紹介し,LanFL は純粋にプロンプトベースであり,基礎となる LLM をブラックボックスとして扱う。
論文 参考訳(メタデータ) (2024-10-24T19:28:33Z) - OpenR: An Open Source Framework for Advanced Reasoning with Large Language Models [61.14336781917986]
大規模言語モデル(LLM)の推論能力を高めるためのオープンソースのフレームワークであるOpenRを紹介する。
OpenRは、データ取得、強化学習トレーニング、非自己回帰デコーディングを凝集性ソフトウェアプラットフォームに統合する。
私たちの研究は、OpenAIのo1モデルのコア技術と強化学習を探求する、オープンソースのフレームワークを初めて提供するものです。
論文 参考訳(メタデータ) (2024-10-12T23:42:16Z) - A Survey on Efficient Federated Learning Methods for Foundation Model Training [62.473245910234304]
フェデレーテッド・ラーニング(FL)は、多数のクライアントにわたるプライバシー保護協調トレーニングを促進するための確立した技術となっている。
Foundation Models (FM)の後、多くのディープラーニングアプリケーションでは現実が異なる。
FLアプリケーションに対するパラメータ効率細調整(PEFT)の利点と欠点について論じる。
論文 参考訳(メタデータ) (2024-01-09T10:22:23Z) - Federated Fine-Tuning of LLMs on the Very Edge: The Good, the Bad, the Ugly [62.473245910234304]
本稿では,最新のエッジコンピューティングシステムにおいて,Large Language Modelsをどのように導入できるかを,ハードウェア中心のアプローチで検討する。
マイクロレベルのハードウェアベンチマークを行い、FLOPモデルと最先端のデータセンターGPUを比較し、現実的な条件下でのネットワーク利用について検討する。
論文 参考訳(メタデータ) (2023-10-04T20:27:20Z) - APPFLx: Providing Privacy-Preserving Cross-Silo Federated Learning as a
Service [1.5070429249282935]
クロスサイロプライバシ保護フェデレーション学習(PPFL)は、機密性の高いローカルデータを共有することなく、堅牢で一般化された機械学習(ML)モデルを協調的にトレーニングする強力なツールである。
APPFLxは、プライバシ保護のためのクロスサイロ・フェデレーション・ラーニング・アズ・ア・サービスを提供する。
論文 参考訳(メタデータ) (2023-08-17T05:15:47Z) - Towards Cooperative Federated Learning over Heterogeneous Edge/Fog
Networks [49.19502459827366]
フェデレートラーニング(FL)は、エッジ/フォグネットワーク上で機械学習(ML)モデルをトレーニングするための一般的なテクニックとして推奨されている。
FLの従来の実装は、ネットワーク間協力の可能性を大きく無視してきた。
我々は,デバイス・ツー・デバイス(D2D)とデバイス・ツー・サーバ(D2S)インタラクションに基づいて構築された協調的エッジ/フォグMLパラダイムである協調的連合学習(CFL)を提唱する。
論文 参考訳(メタデータ) (2023-03-15T04:41:36Z) - Vertical Federated Learning: A Structured Literature Review [0.0]
フェデレートラーニング(FL)は、データプライバシのメリットを付加した、有望な分散ラーニングパラダイムとして登場した。
本稿では,VFLにおける最先端のアプローチを論じる構造化文献レビューを行う。
論文 参考訳(メタデータ) (2022-12-01T16:16:41Z) - NVIDIA FLARE: Federated Learning from Simulation to Real-World [11.490933081543787]
私たちはNVIDIA FLAREをオープンソース開発キット(SDK)として開発しました。
SDKには最先端のFLアルゴリズムとフェデレートされた機械学習アプローチのためのソリューションが含まれている。
論文 参考訳(メタデータ) (2022-10-24T14:30:50Z) - FedML: A Research Library and Benchmark for Federated Machine Learning [55.09054608875831]
フェデレート・ラーニング(Federated Learning, FL)は、機械学習の分野で急速に成長している研究分野である。
既存のFLライブラリは多様なアルゴリズム開発を適切にサポートできない。
FLアルゴリズムの開発と公正な性能比較を容易にするための,オープンな研究ライブラリとベンチマークであるFedMLを紹介する。
論文 参考訳(メタデータ) (2020-07-27T13:02:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。