論文の概要: APPFL: Open-Source Software Framework for Privacy-Preserving Federated
Learning
- arxiv url: http://arxiv.org/abs/2202.03672v1
- Date: Tue, 8 Feb 2022 06:23:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-09 15:23:18.077844
- Title: APPFL: Open-Source Software Framework for Privacy-Preserving Federated
Learning
- Title(参考訳): APPFL:プライバシ保護フェデレーション学習のためのオープンソースソフトウェアフレームワーク
- Authors: Minseok Ryu, Youngdae Kim, Kibaek Kim, and Ravi K. Madduri
- Abstract要約: フェデレートラーニング(FL)は、従来の機械学習のように、データを中央の場所に転送する代わりに、異なる場所でトレーニングモデルを実行し、トレーニングから重みを更新することを可能にする。
本稿では,Argonneのプライバシ保護フェデレート学習フレームワークであるAPPFLを紹介する。
APPFLは、実装されたプライバシ保存アルゴリズムを活用し、新しいアルゴリズムを実装し、さまざまなFLアルゴリズムをプライバシ保存技術でシミュレートし、デプロイすることを可能にする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) enables training models at different sites and
updating the weights from the training instead of transferring data to a
central location and training as in classical machine learning. The FL
capability is especially important to domains such as biomedicine and smart
grid, where data may not be shared freely or stored at a central location
because of policy challenges. Thanks to the capability of learning from
decentralized datasets, FL is now a rapidly growing research field, and
numerous FL frameworks have been developed. In this work, we introduce APPFL,
the Argonne Privacy-Preserving Federated Learning framework. APPFL allows users
to leverage implemented privacy-preserving algorithms, implement new
algorithms, and simulate and deploy various FL algorithms with
privacy-preserving techniques. The modular framework enables users to customize
the components for algorithms, privacy, communication protocols, neural network
models, and user data. We also present a new communication-efficient algorithm
based on an inexact alternating direction method of multipliers. The algorithm
requires significantly less communication between the server and the clients
than does the current state of the art. We demonstrate the computational
capabilities of APPFL, including differentially private FL on various test
datasets and its scalability, by using multiple algorithms and datasets on
different computing environments.
- Abstract(参考訳): フェデレートラーニング(FL)は、従来の機械学習のように、データを中央の場所に転送する代わりに、異なる場所でトレーニングモデルを実行し、トレーニングから重みを更新することを可能にする。
fl機能はバイオメディシンやスマートグリッドといった分野において特に重要であり、政策上の課題からデータを自由に共有したり、中央の場所に保存したりできない。
分散データセットから学習する能力のおかげで、FLは現在急速に成長している研究分野であり、多くのFLフレームワークが開発されている。
本稿では,Argonne Privacy-Preserving Federated LearningフレームワークであるAPPFLを紹介する。
appflは、実装済みプライバシ保存アルゴリズムを活用し、新しいアルゴリズムを実装し、プライバシ保存技術で様々なflアルゴリズムをシミュレートし、デプロイすることができる。
モジュラーフレームワークにより、アルゴリズム、プライバシ、通信プロトコル、ニューラルネットワークモデル、ユーザデータなどのコンポーネントをカスタマイズすることができる。
また,乗算器の不正確な交互方向法に基づく新しい通信効率アルゴリズムを提案する。
このアルゴリズムは、現在の最先端技術よりもサーバとクライアント間の通信を著しく少なくする。
様々なテストデータセット上の差分プライベートFLとスケーラビリティを含むAPPFLの計算能力を,異なる計算環境における複数のアルゴリズムとデータセットを用いて示す。
関連論文リスト
- Communication Efficient ConFederated Learning: An Event-Triggered SAGA
Approach [67.27031215756121]
Federated Learning(FL)は、さまざまなデータソース上のローカルデータを収集することなく、モデルトレーニングをターゲットとする機械学習パラダイムである。
単一のサーバを使用するStandard FLは、限られた数のユーザしかサポートできないため、学習能力の低下につながる。
本研究では,多数のユーザに対応するために,emphConfederated Learning(CFL)と呼ばれるマルチサーバFLフレームワークを検討する。
論文 参考訳(メタデータ) (2024-02-28T03:27:10Z) - A Survey on Efficient Federated Learning Methods for Foundation Model
Training [66.19763977571114]
フェデレーテッド・ラーニング(FL)は、多数のクライアントにわたるプライバシー保護協調トレーニングを促進するための確立した技術となっている。
Foundation Models (FM)の後、多くのディープラーニングアプリケーションでは現実が異なる。
FLアプリケーションに対するパラメータ効率細調整(PEFT)の利点と欠点について論じる。
論文 参考訳(メタデータ) (2024-01-09T10:22:23Z) - A Quality-of-Service Compliance System using Federated Learning and
Optimistic Rollups [0.0]
平行するトレンドは、多くの人々にとって主要なコンピューティングデバイスとして携帯電話やタブレットが台頭していることだ。
これらのデバイスに存在する強力なセンサーは、それらがモバイルであるという事実と相まって、前例のないほど多様なプライベートな性質を持つデータにアクセスすることができる。
このようなデータで学んだモデルは、よりインテリジェントなアプリケーションを動かすことによって、ユーザビリティを劇的に向上させるという約束を持っているが、データに敏感な性質は、それを集中した場所に保存するリスクと責任を意味する。
我々は、クライアントが実行するサービスに関する特定のデータがソースマシンを離れないように、フェデレートラーニング(FL)の使用を提案する。
論文 参考訳(メタデータ) (2023-11-14T20:02:37Z) - Federated Fine-Tuning of LLMs on the Very Edge: The Good, the Bad, the
Ugly [66.19763977571114]
本稿では,最新のエッジコンピューティングシステムにおいて,Large Language Modelsをどのように導入できるかを,ハードウェア中心のアプローチで検討する。
マイクロレベルのハードウェアベンチマークを行い、FLOPモデルと最先端のデータセンターGPUを比較し、現実的な条件下でのネットワーク利用について検討する。
論文 参考訳(メタデータ) (2023-10-04T20:27:20Z) - Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z) - Evaluation and comparison of federated learning algorithms for Human
Activity Recognition on smartphones [0.5039813366558306]
フェデレートラーニング(FL)は、ローカルデバイスの使用を促進する新しい機械学習パラダイムとして導入された。
本稿では,FedDistと呼ばれる新しいFLアルゴリズムを提案する。
その結果、FedDistが異種データに適応できることと、FLが非同期な状況に対処できることが示されている。
論文 参考訳(メタデータ) (2022-10-30T18:47:23Z) - sqSGD: Locally Private and Communication Efficient Federated Learning [14.60645909629309]
Federated Learning(FL)は、分散データソースから機械学習モデルをトレーニングするテクニックである。
我々は,通信効率と高次元互換性に対処するsqSGDという勾配学習アルゴリズムを開発した。
実験の結果、sqSGDはローカルのプライバシー制約でLeNetやResNetのような大規模なモデルをうまく学習している。
論文 参考訳(メタデータ) (2022-06-21T17:45:35Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z) - Communication-Efficient Hierarchical Federated Learning for IoT
Heterogeneous Systems with Imbalanced Data [42.26599494940002]
フェデレートラーニング(Federated Learning, FL)は、複数のノードが協調してディープラーニングモデルをトレーニングできる分散ラーニング方法論である。
本稿では,IoTヘテロジニアスシステムにおける階層FLの可能性について検討する。
複数のエッジノード上でのユーザ割り当てとリソース割り当てに最適化されたソリューションを提案する。
論文 参考訳(メタデータ) (2021-07-14T08:32:39Z) - FedML: A Research Library and Benchmark for Federated Machine Learning [55.09054608875831]
フェデレート・ラーニング(Federated Learning, FL)は、機械学習の分野で急速に成長している研究分野である。
既存のFLライブラリは多様なアルゴリズム開発を適切にサポートできない。
FLアルゴリズムの開発と公正な性能比較を容易にするための,オープンな研究ライブラリとベンチマークであるFedMLを紹介する。
論文 参考訳(メタデータ) (2020-07-27T13:02:08Z) - Evaluating the Communication Efficiency in Federated Learning Algorithms [3.713348568329249]
近年,多くの国で新たなプライバシー法が制定され,フェデレートラーニング(FL)の概念が導入されている。
FLでは、モバイルユーザーは、プライバシーに敏感なデータを共有せずに、ローカルモデルを集約することでグローバルモデルを学ぶことができる。
これにより、FLを大規模に実装する際の通信コストの課題が提起される。
論文 参考訳(メタデータ) (2020-04-06T15:31:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。