論文の概要: FLAME: Federated Learning Across Multi-device Environments
- arxiv url: http://arxiv.org/abs/2202.08922v1
- Date: Thu, 17 Feb 2022 22:23:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-21 22:41:20.304030
- Title: FLAME: Federated Learning Across Multi-device Environments
- Title(参考訳): FLAME: マルチデバイス環境におけるフェデレーション学習
- Authors: Hyunsung Cho, Akhil Mathur, Fahim Kawsar
- Abstract要約: Federated Learning (FL)は、マシンラーニングモデルの分散トレーニングを可能にし、ユーザデバイス上の個人情報をプライベートに保持する。
ユーザ中心のFLAME学習手法であるFLAMEを提案する。
その結果,FLAMEはF-1スコアが4.8~33.8%,エネルギー効率が1.02~2.86倍,収束速度が2.02倍に向上した。
- 参考スコア(独自算出の注目度): 9.810211000961647
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated Learning (FL) enables distributed training of machine learning
models while keeping personal data on user devices private. While we witness
increasing applications of FL in the area of mobile sensing, such as
human-activity recognition, FL has not been studied in the context of a
multi-device environment (MDE), wherein each user owns multiple data-producing
devices. With the proliferation of mobile and wearable devices, MDEs are
increasingly becoming popular in ubicomp settings, therefore necessitating the
study of FL in them. FL in MDEs is characterized by high non-IID-ness across
clients, complicated by the presence of both user and device heterogeneities.
Further, ensuring efficient utilization of system resources on FL clients in a
MDE remains an important challenge. In this paper, we propose FLAME, a
user-centered FL training approach to counter statistical and system
heterogeneity in MDEs, and bring consistency in inference performance across
devices. FLAME features (i) user-centered FL training utilizing the time
alignment across devices from the same user; (ii) accuracy- and
efficiency-aware device selection; and (iii) model personalization to devices.
We also present an FL evaluation testbed with realistic energy drain and
network bandwidth profiles, and a novel class-based data partitioning scheme to
extend existing HAR datasets to a federated setup. Our experiment results on
three multi-device HAR datasets show that FLAME outperforms various baselines
by 4.8-33.8% higher F-1 score, 1.02-2.86x greater energy efficiency, and up to
2.02x speedup in convergence to target accuracy through fair distribution of
the FL workload.
- Abstract(参考訳): federated learning(fl)は、個人データをユーザデバイスにプライベートに保持しながら、マシンラーニングモデルの分散トレーニングを可能にする。
ヒューマンアクティビティ認識などのモバイルセンシング分野におけるFLの応用が増加しているのを目にするが、FLはマルチデバイス環境(MDE)の文脈では研究されておらず、各ユーザが複数のデータ生成デバイスを所有している。
モバイルやウェアラブルデバイスの普及に伴い、MIDはユビコン設定で人気が高まり、FLの研究が必要とされるようになった。
MDEにおけるFLは、クライアント間の非IID性が高く、ユーザとデバイスの両方の不均一性が複雑である。
さらに、MDEにおけるFLクライアントにおけるシステムリソースの効率的な利用の確保は、依然として重要な課題である。
本稿では,ユーザ中心のFLAME学習手法であるFLAMEを提案し,MDEにおける統計的・システム的不均一性に対処し,デバイス間での推論性能の整合性を実現する。
FLAMEの特徴
(i)同一ユーザからのデバイス間の時間アライメントを利用したユーザ中心FLトレーニング
二 精度及び効率性を考慮した装置の選択
(iii)デバイスへのパーソナライズモデル。
また,実測エネルギードレインとネットワーク帯域幅プロファイルを用いたFL評価実験を行い,既存のHARデータセットをフェデレートした設定に拡張する新しいクラスベースデータ分割方式を提案する。
その結果,FLAMEはF-1スコアが4.8~33.8%,エネルギー効率が1.02~2.86倍,収束速度が最大2.2倍に向上し,FLワークロードの公平分布による目標精度が向上した。
関連論文リスト
- FLEdge: Benchmarking Federated Machine Learning Applications in Edge
Computing Systems [77.45213180689952]
本稿では,エッジコンピューティングシステムにおけるFLワークロードを対象としたベンチマークであるFLEdgeを紹介する。
ハードウェアの不均一性,トレーニング中のエネルギー効率,およびFLシステムのトレーニングに対する各種の差分プライバシーレベルの影響を系統的に研究した。
クライアントのドロップアウトが失敗率50%の最先端のFL戦略に与える影響を評価する。
論文 参考訳(メタデータ) (2023-06-08T13:11:20Z) - FS-Real: Towards Real-World Cross-Device Federated Learning [60.91678132132229]
Federated Learning (FL)は、ローカルデータをアップロードすることなく、分散クライアントと協調して高品質なモデルをトレーニングすることを目的としている。
FL研究と実世界のシナリオの間には依然としてかなりのギャップがあり、主に異種デバイスの特徴とそのスケールによって引き起こされている。
本稿では,実世界横断デバイスFL,FS-Realのための効率的でスケーラブルなプロトタイピングシステムを提案する。
論文 参考訳(メタデータ) (2023-03-23T15:37:17Z) - Enhancing Efficiency in Multidevice Federated Learning through Data Selection [11.67484476827617]
マルチデバイス環境におけるフェデレーション学習(FL)は、膨大な量のプライベートデータから学習する新たな機会を生み出す。
本稿では、デバイス上のデータ選択を制約されたデバイスに組み込むためのFLフレームワークを開発する。
我々のフレームワークは,実装戦略のないベースラインFLと比較して,19%の精度,58%のレイテンシを実現している。
論文 参考訳(メタデータ) (2022-11-08T11:39:17Z) - Online Data Selection for Federated Learning with Limited Storage [53.46789303416799]
ネットワークデバイス間での分散機械学習を実現するために、フェデレートラーニング(FL)が提案されている。
デバイス上のストレージがFLの性能に与える影響はまだ調査されていない。
本研究では,デバイス上のストレージを限定したFLのオンラインデータ選択について検討する。
論文 参考訳(メタデータ) (2022-09-01T03:27:33Z) - A Survey on Participant Selection for Federated Learning in Mobile
Networks [47.88372677863646]
Federated Learning(FL)は、プライベートデータセットをプライバシ保護の方法で使用する、効率的な分散機械学習パラダイムである。
モバイルネットワークにおける通信帯域が限られており、不安定なデバイスが利用できるため、各ラウンドで選択できる端末はごくわずかである。
論文 参考訳(メタデータ) (2022-07-08T04:22:48Z) - Learnings from Federated Learning in the Real world [19.149989896466852]
実世界のデータに適用されるフェデレートラーニング(FL)は、いくつかの慣用性に悩まされることがある。
デバイスにまたがるデータは、大量のデータを持つ"重いデバイス"がいくつか存在する一方で、少数のデータポイントしか持たない"軽量ユーザ"が多数存在するように分散することができる。
FLを用いて学習した自然言語理解モデル(NLU)に対する,このような慣用句の影響を評価した。
論文 参考訳(メタデータ) (2022-02-08T15:21:31Z) - Mobility-Aware Cluster Federated Learning in Hierarchical Wireless
Networks [81.83990083088345]
我々は,無線ネットワークにおける階層型フェデレーション学習(HFL)アルゴリズムを特徴付ける理論モデルを開発した。
分析の結果,HFLの学習性能は,ハイモービル利用者の学習能力が著しく低下していることが判明した。
これらの問題を回避するため,我々はMACFLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-08-20T10:46:58Z) - Multi-Center Federated Learning [62.32725938999433]
フェデレートラーニング(FL)は、分散ラーニングにおけるデータのプライバシを保護する。
単にデータにアクセスせずに、ユーザーからローカルな勾配を収集するだけだ。
本稿では,新しいマルチセンターアグリゲーション機構を提案する。
論文 参考訳(メタデータ) (2021-08-19T12:20:31Z) - FLeet: Online Federated Learning via Staleness Awareness and Performance
Prediction [9.408271687085476]
本稿では,最初のオンラインフェデレーション学習システムであるFLeetについて述べる。
オンラインFLは、標準FLのプライバシーとオンライン学習の精度を組み合わせる。
I-Profは新しい軽量プロファイラで、モバイルデバイスにおける学習タスクの影響を予測し、制御する。
AdaSGDは新しい適応学習アルゴリズムで、更新の遅れに耐性がある。
論文 参考訳(メタデータ) (2020-06-12T15:43:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。