論文の概要: FLaPS: Federated Learning and Privately Scaling
- arxiv url: http://arxiv.org/abs/2009.06005v1
- Date: Sun, 13 Sep 2020 14:20:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-19 02:50:19.403974
- Title: FLaPS: Federated Learning and Privately Scaling
- Title(参考訳): flaps: 連合学習とプライベートスケーリング
- Authors: Sudipta Paul, Poushali Sengupta and Subhankar Mishra
- Abstract要約: フェデレートラーニング(Federated Learning, FL)とは、データを収集するデバイスにモデルを転送する分散学習プロセスである。
FLaPS(Federated Learning and Privately Scaling)アーキテクチャは,システムのセキュリティとプライバシだけでなく,スケーラビリティも向上する。
- 参考スコア(独自算出の注目度): 3.618133010429131
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning (FL) is a distributed learning process where the model
(weights and checkpoints) is transferred to the devices that posses data rather
than the classical way of transferring and aggregating the data centrally. In
this way, sensitive data does not leave the user devices. FL uses the FedAvg
algorithm, which is trained in the iterative model averaging way, on the
non-iid and unbalanced distributed data, without depending on the data
quantity. Some issues with the FL are, 1) no scalability, as the model is
iteratively trained over all the devices, which amplifies with device drops; 2)
security and privacy trade-off of the learning process still not robust enough
and 3) overall communication efficiency and the cost are higher. To mitigate
these challenges we present Federated Learning and Privately Scaling (FLaPS)
architecture, which improves scalability as well as the security and privacy of
the system. The devices are grouped into clusters which further gives better
privacy scaled turn around time to finish a round of training. Therefore, even
if a device gets dropped in the middle of training, the whole process can be
started again after a definite amount of time. The data and model both are
communicated using differentially private reports with iterative shuffling
which provides a better privacy-utility trade-off. We evaluated FLaPS on MNIST,
CIFAR10, and TINY-IMAGENET-200 dataset using various CNN models. Experimental
results prove FLaPS to be an improved, time and privacy scaled environment
having better and comparable after-learning-parameters with respect to the
central and FL models.
- Abstract(参考訳): フェデレーション学習(federated learning, fl)は、モデル(重み付けとチェックポイント)を、データを集中的に転送し集約する古典的な方法ではなく、データをポースするデバイスに転送する分散学習プロセスである。
このように、センシティブなデータがユーザデバイスを離れることはない。
FLはFedAvgアルゴリズムを用いて、データ量に依存することなく、非IDおよびアンバランス分散データに基づいて、反復モデル平均化方法で訓練される。
FLのいくつかの問題は、
1) モデルがすべてのデバイスに対して反復的に訓練されているため,拡張性がない。
2) 学習プロセスのセキュリティとプライバシのトレードオフは依然として不十分である。
3) 全体としての通信効率とコストは高い。
これらの課題を軽減するために、フェデレーション学習とプライベートスケーリング(flaps)アーキテクチャを導入し、システムのセキュリティとプライバシだけでなく、スケーラビリティも改善します。
デバイスはクラスタにグループ化され、トレーニングを終了するために、より優れたプライバシスケールのターンアラウンドタイムが提供される。
したがって、トレーニング中にデバイスがドロップされたとしても、一定時間後にプロセス全体を再開することができる。
データとモデルは、プライバシ利用のトレードオフを改善する反復的なシャッフルによって、異なるプライベートレポートを使用して通信される。
我々は,様々なCNNモデルを用いて,MNIST,CIFAR10,TINY-IMAGENET-200データセット上でFLaPSを評価した。
実験の結果、flapsは改良された時間とプライバシをスケールした環境であり、中央モデルとflモデルに対して、学習後のパラメータがより良く、比較できることがわかった。
関連論文リスト
- MultiConfederated Learning: Inclusive Non-IID Data handling with Decentralized Federated Learning [1.2726316791083532]
Federated Learning (FL) は、機密性のある臨床機械学習のようなユースケースを可能にするための、顕著なプライバシ保護技術として登場した。
FLはデータを所有するリモートデバイスによってトレーニングされたモデルを集約することで動作する。
非IIDデータを扱うために設計された分散FLフレームワークであるMultiConfederated Learningを提案する。
論文 参考訳(メタデータ) (2024-04-20T16:38:26Z) - Adaptive Model Pruning and Personalization for Federated Learning over
Wireless Networks [72.59891661768177]
フェデレーション学習(FL)は、データプライバシを保護しながら、エッジデバイス間での分散学習を可能にする。
これらの課題を克服するために、部分的なモデルプルーニングとパーソナライズを備えたFLフレームワークを検討する。
このフレームワークは、学習モデルを、データ表現を学ぶためにすべてのデバイスと共有されるモデルプルーニングと、特定のデバイスのために微調整されるパーソナライズされた部分とで、グローバルな部分に分割する。
論文 参考訳(メタデータ) (2023-09-04T21:10:45Z) - Federated Learning and Meta Learning: Approaches, Applications, and
Directions [94.68423258028285]
本稿では,FL,メタラーニング,フェデレーションメタラーニング(FedMeta)について概観する。
他のチュートリアルと異なり、私たちの目標はFL、メタラーニング、FedMetaの方法論をどのように設計、最適化、進化させ、無線ネットワーク上で応用するかを探ることです。
論文 参考訳(メタデータ) (2022-10-24T10:59:29Z) - Online Data Selection for Federated Learning with Limited Storage [53.46789303416799]
ネットワークデバイス間での分散機械学習を実現するために、フェデレートラーニング(FL)が提案されている。
デバイス上のストレージがFLの性能に与える影響はまだ調査されていない。
本研究では,デバイス上のストレージを限定したFLのオンラインデータ選択について検討する。
論文 参考訳(メタデータ) (2022-09-01T03:27:33Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - Learnings from Federated Learning in the Real world [19.149989896466852]
実世界のデータに適用されるフェデレートラーニング(FL)は、いくつかの慣用性に悩まされることがある。
デバイスにまたがるデータは、大量のデータを持つ"重いデバイス"がいくつか存在する一方で、少数のデータポイントしか持たない"軽量ユーザ"が多数存在するように分散することができる。
FLを用いて学習した自然言語理解モデル(NLU)に対する,このような慣用句の影響を評価した。
論文 参考訳(メタデータ) (2022-02-08T15:21:31Z) - Federated Learning-based Active Authentication on Mobile Devices [98.23904302910022]
モバイルデバイス上のユーザアクティブ認証は、デバイスセンサ情報に基づいて登録ユーザを正しく認識できるモデルを学ぶことを目的としている。
Federated Active Authentication (FAA) と呼ばれる新しいユーザーアクティブ認証トレーニングを提案します。
既存のFL/SL法は,同質に分散するデータに依存するため,FAAにとって最適ではないことを示す。
論文 参考訳(メタデータ) (2021-04-14T22:59:08Z) - Over-the-Air Federated Learning from Heterogeneous Data [107.05618009955094]
フェデレートラーニング(Federated Learning、FL)は、集中型モデルの分散ラーニングのためのフレームワークである。
我々は,共通局所勾配勾配勾配(SGD)FLアルゴリズムを強化するコンバージェント OTA FL (COTAF) アルゴリズムを開発した。
我々は,COTAFにより誘導されるプリコーディングが,OTA FLを用いて訓練されたモデルの収束率と精度を顕著に向上させることを示す。
論文 参考訳(メタデータ) (2020-09-27T08:28:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。