論文の概要: Learnings from Federated Learning in the Real world
- arxiv url: http://arxiv.org/abs/2202.03925v1
- Date: Tue, 8 Feb 2022 15:21:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-09 15:22:22.234002
- Title: Learnings from Federated Learning in the Real world
- Title(参考訳): 現実世界における連合学習からの学習
- Authors: Christophe Dupuy, Tanya G. Roosta, Leo Long, Clement Chung, Rahul
Gupta, Salman Avestimehr
- Abstract要約: 実世界のデータに適用されるフェデレートラーニング(FL)は、いくつかの慣用性に悩まされることがある。
デバイスにまたがるデータは、大量のデータを持つ"重いデバイス"がいくつか存在する一方で、少数のデータポイントしか持たない"軽量ユーザ"が多数存在するように分散することができる。
FLを用いて学習した自然言語理解モデル(NLU)に対する,このような慣用句の影響を評価した。
- 参考スコア(独自算出の注目度): 19.149989896466852
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Learning (FL) applied to real world data may suffer from several
idiosyncrasies. One such idiosyncrasy is the data distribution across devices.
Data across devices could be distributed such that there are some "heavy
devices" with large amounts of data while there are many "light users" with
only a handful of data points. There also exists heterogeneity of data across
devices. In this study, we evaluate the impact of such idiosyncrasies on
Natural Language Understanding (NLU) models trained using FL. We conduct
experiments on data obtained from a large scale NLU system serving thousands of
devices and show that simple non-uniform device selection based on the number
of interactions at each round of FL training boosts the performance of the
model. This benefit is further amplified in continual FL on consecutive time
periods, where non-uniform sampling manages to swiftly catch up with FL methods
using all data at once.
- Abstract(参考訳): 実世界データに適用された連合学習(fl)は、いくつかの慣用性に苦しむことがある。
そのような慣用性のひとつは、デバイス間でのデータ分散である。
デバイス間でデータを分散できるので、大量のデータを持つ "heavy device" が存在する一方で、わずかなデータポイントしか持たない "light users" が多数存在する。
デバイス間のデータの均一性も存在します。
本研究では, flを用いて学習した自然言語理解モデル (nlu) に対する特徴量の影響を評価する。
大規模nluシステムから得られたデータを数千台のデバイスに提供して実験を行い,flトレーニングの各ラウンドにおけるインタラクション数に基づく単純な非一様デバイス選択が,モデルの性能を向上させることを示した。
この利点は連続的なFLにおいてさらに増幅され、非一様サンプリングが一度にすべてのデータを使ってFLメソッドに追いつく。
関連論文リスト
- FS-Real: Towards Real-World Cross-Device Federated Learning [60.91678132132229]
Federated Learning (FL)は、ローカルデータをアップロードすることなく、分散クライアントと協調して高品質なモデルをトレーニングすることを目的としている。
FL研究と実世界のシナリオの間には依然としてかなりのギャップがあり、主に異種デバイスの特徴とそのスケールによって引き起こされている。
本稿では,実世界横断デバイスFL,FS-Realのための効率的でスケーラブルなプロトタイピングシステムを提案する。
論文 参考訳(メタデータ) (2023-03-23T15:37:17Z) - Federated Learning and Meta Learning: Approaches, Applications, and
Directions [94.68423258028285]
本稿では,FL,メタラーニング,フェデレーションメタラーニング(FedMeta)について概観する。
他のチュートリアルと異なり、私たちの目標はFL、メタラーニング、FedMetaの方法論をどのように設計、最適化、進化させ、無線ネットワーク上で応用するかを探ることです。
論文 参考訳(メタデータ) (2022-10-24T10:59:29Z) - FLamby: Datasets and Benchmarks for Cross-Silo Federated Learning in
Realistic Healthcare Settings [51.09574369310246]
Federated Learning(FL)は、センシティブなデータを保持している複数のクライアントが協力して機械学習モデルをトレーニングできる新しいアプローチである。
本稿では,医療分野に重点を置くクロスサイロ・データセット・スイートFLambyを提案し,クロスサイロ・FLの理論と実践のギャップを埋める。
私たちのフレキシブルでモジュラーなスイートによって、研究者は簡単にデータセットをダウンロードし、結果を再現し、研究のためにさまざまなコンポーネントを再利用することができます。
論文 参考訳(メタデータ) (2022-10-10T12:17:30Z) - Online Data Selection for Federated Learning with Limited Storage [53.46789303416799]
ネットワークデバイス間での分散機械学習を実現するために、フェデレートラーニング(FL)が提案されている。
デバイス上のストレージがFLの性能に与える影響はまだ調査されていない。
本研究では,デバイス上のストレージを限定したFLのオンラインデータ選択について検討する。
論文 参考訳(メタデータ) (2022-09-01T03:27:33Z) - FLAME: Federated Learning Across Multi-device Environments [9.810211000961647]
Federated Learning (FL)は、マシンラーニングモデルの分散トレーニングを可能にし、ユーザデバイス上の個人情報をプライベートに保持する。
ユーザ中心のFLAME学習手法であるFLAMEを提案する。
その結果,FLAMEはF-1スコアが4.8~33.8%,エネルギー効率が1.02~2.86倍,収束速度が2.02倍に向上した。
論文 参考訳(メタデータ) (2022-02-17T22:23:56Z) - Multi-Center Federated Learning [62.32725938999433]
フェデレートラーニング(FL)は、分散ラーニングにおけるデータのプライバシを保護する。
単にデータにアクセスせずに、ユーザーからローカルな勾配を収集するだけだ。
本稿では,新しいマルチセンターアグリゲーション機構を提案する。
論文 参考訳(メタデータ) (2021-08-19T12:20:31Z) - Federated Learning-based Active Authentication on Mobile Devices [98.23904302910022]
モバイルデバイス上のユーザアクティブ認証は、デバイスセンサ情報に基づいて登録ユーザを正しく認識できるモデルを学ぶことを目的としている。
Federated Active Authentication (FAA) と呼ばれる新しいユーザーアクティブ認証トレーニングを提案します。
既存のFL/SL法は,同質に分散するデータに依存するため,FAAにとって最適ではないことを示す。
論文 参考訳(メタデータ) (2021-04-14T22:59:08Z) - FLaPS: Federated Learning and Privately Scaling [3.618133010429131]
フェデレートラーニング(Federated Learning, FL)とは、データを収集するデバイスにモデルを転送する分散学習プロセスである。
FLaPS(Federated Learning and Privately Scaling)アーキテクチャは,システムのセキュリティとプライバシだけでなく,スケーラビリティも向上する。
論文 参考訳(メタデータ) (2020-09-13T14:20:17Z) - Federated Visual Classification with Real-World Data Distribution [9.564468846277366]
我々は,FedAvg(Federated Averaging)アルゴリズムのベンチマークを用いて,実世界のデータ分布が分散学習に与える影響を特徴付ける。
種別とランドマーク分類のための2つの新しい大規模データセットを導入し,ユーザ毎のデータ分割を現実的に行う。
また、2つの新しいアルゴリズム(FedVC、FedIR)も開発しています。
論文 参考訳(メタデータ) (2020-03-18T07:55:49Z) - Communication-Efficient On-Device Machine Learning: Federated
Distillation and Augmentation under Non-IID Private Data [31.85853956347045]
オンデバイス機械学習(ML)により、トレーニングプロセスは大量のユーザ生成プライベートデータサンプルを利用することができる。
分散モデル学習アルゴリズムであるフェデレート蒸留(FD)を提案する。
FAug を用いた FD は FL と比較して 95-98% の精度で通信オーバヘッドの約26倍の低下を示した。
論文 参考訳(メタデータ) (2018-11-28T10:16:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。