論文の概要: APPFL: Open-Source Software Framework for Privacy-Preserving Federated
Learning
- arxiv url: http://arxiv.org/abs/2202.03672v1
- Date: Tue, 8 Feb 2022 06:23:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-09 15:23:18.077844
- Title: APPFL: Open-Source Software Framework for Privacy-Preserving Federated
Learning
- Title(参考訳): APPFL:プライバシ保護フェデレーション学習のためのオープンソースソフトウェアフレームワーク
- Authors: Minseok Ryu, Youngdae Kim, Kibaek Kim, and Ravi K. Madduri
- Abstract要約: フェデレートラーニング(FL)は、従来の機械学習のように、データを中央の場所に転送する代わりに、異なる場所でトレーニングモデルを実行し、トレーニングから重みを更新することを可能にする。
本稿では,Argonneのプライバシ保護フェデレート学習フレームワークであるAPPFLを紹介する。
APPFLは、実装されたプライバシ保存アルゴリズムを活用し、新しいアルゴリズムを実装し、さまざまなFLアルゴリズムをプライバシ保存技術でシミュレートし、デプロイすることを可能にする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) enables training models at different sites and
updating the weights from the training instead of transferring data to a
central location and training as in classical machine learning. The FL
capability is especially important to domains such as biomedicine and smart
grid, where data may not be shared freely or stored at a central location
because of policy challenges. Thanks to the capability of learning from
decentralized datasets, FL is now a rapidly growing research field, and
numerous FL frameworks have been developed. In this work, we introduce APPFL,
the Argonne Privacy-Preserving Federated Learning framework. APPFL allows users
to leverage implemented privacy-preserving algorithms, implement new
algorithms, and simulate and deploy various FL algorithms with
privacy-preserving techniques. The modular framework enables users to customize
the components for algorithms, privacy, communication protocols, neural network
models, and user data. We also present a new communication-efficient algorithm
based on an inexact alternating direction method of multipliers. The algorithm
requires significantly less communication between the server and the clients
than does the current state of the art. We demonstrate the computational
capabilities of APPFL, including differentially private FL on various test
datasets and its scalability, by using multiple algorithms and datasets on
different computing environments.
- Abstract(参考訳): フェデレートラーニング(FL)は、従来の機械学習のように、データを中央の場所に転送する代わりに、異なる場所でトレーニングモデルを実行し、トレーニングから重みを更新することを可能にする。
fl機能はバイオメディシンやスマートグリッドといった分野において特に重要であり、政策上の課題からデータを自由に共有したり、中央の場所に保存したりできない。
分散データセットから学習する能力のおかげで、FLは現在急速に成長している研究分野であり、多くのFLフレームワークが開発されている。
本稿では,Argonne Privacy-Preserving Federated LearningフレームワークであるAPPFLを紹介する。
appflは、実装済みプライバシ保存アルゴリズムを活用し、新しいアルゴリズムを実装し、プライバシ保存技術で様々なflアルゴリズムをシミュレートし、デプロイすることができる。
モジュラーフレームワークにより、アルゴリズム、プライバシ、通信プロトコル、ニューラルネットワークモデル、ユーザデータなどのコンポーネントをカスタマイズすることができる。
また,乗算器の不正確な交互方向法に基づく新しい通信効率アルゴリズムを提案する。
このアルゴリズムは、現在の最先端技術よりもサーバとクライアント間の通信を著しく少なくする。
様々なテストデータセット上の差分プライベートFLとスケーラビリティを含むAPPFLの計算能力を,異なる計算環境における複数のアルゴリズムとデータセットを用いて示す。
関連論文リスト
- Advances in APPFL: A Comprehensive and Extensible Federated Learning Framework [1.4206132527980742]
Federated Learning(FL)は、データプライバシを保持しながら協調的なモデルトレーニングを可能にする分散機械学習パラダイムである。
本稿では,統合学習のためのフレームワークおよびベンチマークスイートであるAPPFLの開発における最近の進歩について述べる。
本稿では, 通信効率, プライバシー保護, 計算性能, 資源利用など, FLの様々な側面を評価する広範な実験を通じて, APPFLの能力を実証する。
論文 参考訳(メタデータ) (2024-09-17T22:20:26Z) - Privacy-aware Berrut Approximated Coded Computing for Federated Learning [1.2084539012992408]
フェデレートラーニングスキームにおけるプライバシを保証するためのソリューションを提案する。
本提案は,Secret Sharing設定に適応したBerrut Approximated Coded Computingに基づく。
論文 参考訳(メタデータ) (2024-05-02T20:03:13Z) - Communication Efficient ConFederated Learning: An Event-Triggered SAGA
Approach [67.27031215756121]
Federated Learning(FL)は、さまざまなデータソース上のローカルデータを収集することなく、モデルトレーニングをターゲットとする機械学習パラダイムである。
単一のサーバを使用するStandard FLは、限られた数のユーザしかサポートできないため、学習能力の低下につながる。
本研究では,多数のユーザに対応するために,emphConfederated Learning(CFL)と呼ばれるマルチサーバFLフレームワークを検討する。
論文 参考訳(メタデータ) (2024-02-28T03:27:10Z) - A Survey on Efficient Federated Learning Methods for Foundation Model Training [62.473245910234304]
フェデレーテッド・ラーニング(FL)は、多数のクライアントにわたるプライバシー保護協調トレーニングを促進するための確立した技術となっている。
Foundation Models (FM)の後、多くのディープラーニングアプリケーションでは現実が異なる。
FLアプリケーションに対するパラメータ効率細調整(PEFT)の利点と欠点について論じる。
論文 参考訳(メタデータ) (2024-01-09T10:22:23Z) - Federated Fine-Tuning of LLMs on the Very Edge: The Good, the Bad, the Ugly [62.473245910234304]
本稿では,最新のエッジコンピューティングシステムにおいて,Large Language Modelsをどのように導入できるかを,ハードウェア中心のアプローチで検討する。
マイクロレベルのハードウェアベンチマークを行い、FLOPモデルと最先端のデータセンターGPUを比較し、現実的な条件下でのネットワーク利用について検討する。
論文 参考訳(メタデータ) (2023-10-04T20:27:20Z) - Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z) - Enhancing Efficiency in Multidevice Federated Learning through Data Selection [11.67484476827617]
マルチデバイス環境におけるフェデレーション学習(FL)は、膨大な量のプライベートデータから学習する新たな機会を生み出す。
本稿では、デバイス上のデータ選択を制約されたデバイスに組み込むためのFLフレームワークを開発する。
我々のフレームワークは,実装戦略のないベースラインFLと比較して,19%の精度,58%のレイテンシを実現している。
論文 参考訳(メタデータ) (2022-11-08T11:39:17Z) - Evaluation and comparison of federated learning algorithms for Human
Activity Recognition on smartphones [0.5039813366558306]
フェデレートラーニング(FL)は、ローカルデバイスの使用を促進する新しい機械学習パラダイムとして導入された。
本稿では,FedDistと呼ばれる新しいFLアルゴリズムを提案する。
その結果、FedDistが異種データに適応できることと、FLが非同期な状況に対処できることが示されている。
論文 参考訳(メタデータ) (2022-10-30T18:47:23Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z) - FedML: A Research Library and Benchmark for Federated Machine Learning [55.09054608875831]
フェデレート・ラーニング(Federated Learning, FL)は、機械学習の分野で急速に成長している研究分野である。
既存のFLライブラリは多様なアルゴリズム開発を適切にサポートできない。
FLアルゴリズムの開発と公正な性能比較を容易にするための,オープンな研究ライブラリとベンチマークであるFedMLを紹介する。
論文 参考訳(メタデータ) (2020-07-27T13:02:08Z) - Evaluating the Communication Efficiency in Federated Learning Algorithms [3.713348568329249]
近年,多くの国で新たなプライバシー法が制定され,フェデレートラーニング(FL)の概念が導入されている。
FLでは、モバイルユーザーは、プライバシーに敏感なデータを共有せずに、ローカルモデルを集約することでグローバルモデルを学ぶことができる。
これにより、FLを大規模に実装する際の通信コストの課題が提起される。
論文 参考訳(メタデータ) (2020-04-06T15:31:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。