論文の概要: On the Design of Communication-Efficient Federated Learning for Health
Monitoring
- arxiv url: http://arxiv.org/abs/2211.16952v1
- Date: Wed, 30 Nov 2022 12:52:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-01 18:25:34.785752
- Title: On the Design of Communication-Efficient Federated Learning for Health
Monitoring
- Title(参考訳): 健康モニタリングのためのコミュニケーション効率の高い連合学習の設計について
- Authors: Dong Chu, Wael Jaafar, and Halim Yanikomeroglu
- Abstract要約: 本稿では,クライアントクラスタリングと伝達学習を含む通信効率のよいフェデレーション学習(CEFL)フレームワークを提案する。
CEFLは従来のFLと比較して、通信コストを最大98.45%削減でき、精度損失は3%未満である。
- 参考スコア(独自算出の注目度): 21.433739206682404
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the booming deployment of Internet of Things, health monitoring
applications have gradually prospered. Within the recent COVID-19 pandemic
situation, interest in permanent remote health monitoring solutions has raised,
targeting to reduce contact and preserve the limited medical resources. Among
the technological methods to realize efficient remote health monitoring,
federated learning (FL) has drawn particular attention due to its robustness in
preserving data privacy. However, FL can yield to high communication costs, due
to frequent transmissions between the FL server and clients. To tackle this
problem, we propose in this paper a communication-efficient federated learning
(CEFL) framework that involves clients clustering and transfer learning. First,
we propose to group clients through the calculation of similarity factors,
based on the neural networks characteristics. Then, a representative client in
each cluster is selected to be the leader of the cluster. Differently from the
conventional FL, our method performs FL training only among the cluster
leaders. Subsequently, transfer learning is adopted by the leader to update its
cluster members with the trained FL model. Finally, each member fine-tunes the
received model with its own data. To further reduce the communication costs, we
opt for a partial-layer FL aggregation approach. This method suggests partially
updating the neural network model rather than fully. Through experiments, we
show that CEFL can save up to to 98.45% in communication costs while conceding
less than 3% in accuracy loss, when compared to the conventional FL. Finally,
CEFL demonstrates a high accuracy for clients with small or unbalanced
datasets.
- Abstract(参考訳): モノのインターネット(Internet of Things)の普及に伴い、健康モニタリングアプリケーションは徐々に成長してきた。
最近の新型コロナウイルス(COVID-19)パンデミックの中で、接触を減らし、限られた医療資源を維持することを目的とした、恒久的な遠隔医療監視ソリューションへの関心が高まっている。
効率的なリモートヘルスモニタリングを実現する技術手法として、フェデレーション・ラーニング(fl)が特に注目されているのは、データのプライバシの保護が堅牢であることである。
しかし、FLサーバとクライアントの間で頻繁に通信を行うため、FLは通信コストが高い。
この問題に対処するため,本稿では,クライアントのクラスタリングと転送学習を含むコミュニケーション効率の高い連合学習(cefl)フレームワークを提案する。
まず,ニューラルネットワークの特性に基づいて類似度係数の計算を行い,クライアントをグループ化する。
そして、各クラスタの代表的なクライアントが選択され、クラスタのリーダとなる。
従来のFLとは違って,本手法はクラスタリーダ間でのみFLトレーニングを行う。
その後、転送学習がリーダによって採用され、トレーニングされたFLモデルでクラスタメンバを更新する。
最後に、各メンバーは受信したモデルを独自のデータで微調整する。
通信コストをさらに削減するために,部分層FLアグリゲーションアプローチを選択する。
この方法は、完全にではなく、部分的にニューラルネットワークモデルを更新することを示唆している。
実験の結果,CEFLは通信コストの最大98.45%を節約できる一方で,従来のFLに比べて3%未満の精度の損失を許容できることがわかった。
最後に、CEFLは、小さくまたはアンバランスなデータセットを持つクライアントに対して高い精度を示す。
関連論文リスト
- Efficient Model Compression for Hierarchical Federated Learning [10.37403547348343]
フェデレートラーニング(FL)は、分散ラーニングシステム内のプライバシを保護する能力のために、大きな注目を集めている。
本稿では,クラスタ化FLとモデル圧縮の利点を統合した新しい階層型FLフレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-27T12:17:47Z) - Communication Efficient ConFederated Learning: An Event-Triggered SAGA
Approach [67.27031215756121]
Federated Learning(FL)は、さまざまなデータソース上のローカルデータを収集することなく、モデルトレーニングをターゲットとする機械学習パラダイムである。
単一のサーバを使用するStandard FLは、限られた数のユーザしかサポートできないため、学習能力の低下につながる。
本研究では,多数のユーザに対応するために,emphConfederated Learning(CFL)と呼ばれるマルチサーバFLフレームワークを検討する。
論文 参考訳(メタデータ) (2024-02-28T03:27:10Z) - FLrce: Resource-Efficient Federated Learning with Early-Stopping Strategy [7.963276533979389]
フェデレートラーニング(FL)がIoT(Internet of Things)で大人気
FLrceは、関係ベースのクライアント選択と早期停止戦略を備えた効率的なFLフレームワークである。
その結果,既存のFLフレームワークと比較してFLrceは計算効率を少なくとも30%,通信効率を43%向上させることがわかった。
論文 参考訳(メタデータ) (2023-10-15T10:13:44Z) - User-Centric Federated Learning: Trading off Wireless Resources for
Personalization [18.38078866145659]
フェデレートラーニング(FL)システムでは、統計的不均一性はアルゴリズム収束時間を増やし、一般化性能を低下させる。
FLが課すプライバシー制約に違反することなく、上記の問題に対処するためには、パーソナライズされたFLメソッドは、データに直接アクセスすることなく、統計的に類似したクライアントを結合する必要がある。
本研究では,容易に利用できる勾配情報に基づいて,FLクライアント毎にパーソナライズされたモデルを生成可能なユーザ中心集約ルールを設計する。
提案アルゴリズムは,平均精度,ノード性能,通信オーバヘッドの訓練において,パーソナライズされたFLベースラインを上回っている。
論文 参考訳(メタデータ) (2023-04-25T15:45:37Z) - Joint Age-based Client Selection and Resource Allocation for
Communication-Efficient Federated Learning over NOMA Networks [8.030674576024952]
FL(Federated Learning)では、分散クライアントは、自身のトレーニングデータをローカルに保持しながら、共有グローバルモデルを共同でトレーニングすることができる。
本稿では,非直交多重アクセス(NOMA)を利用した無線ネットワーク上でのFLにおける各ラウンドの総時間消費を最小化することを目的とした,クライアント選択とリソース割り当ての協調最適化問題を定式化する。
さらに、各ラウンドで選択されていないクライアントのFLモデルを予測し、FL性能をさらに向上するために、サーバサイド人工知能ニューラルネットワーク(ANN)を提案する。
論文 参考訳(メタデータ) (2023-04-18T13:58:16Z) - DisPFL: Towards Communication-Efficient Personalized Federated Learning
via Decentralized Sparse Training [84.81043932706375]
本稿では,分散型(ピアツーピア)通信プロトコルであるDis-PFLにおいて,新たな個人化フェデレーション学習フレームワークを提案する。
Dis-PFLはパーソナライズされたスパースマスクを使用して、エッジ上のスパースローカルモデルをカスタマイズする。
本手法は,計算複雑性の異なる異種ローカルクライアントに容易に適応できることを実証する。
論文 参考訳(メタデータ) (2022-06-01T02:20:57Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z) - Federated Learning over Wireless IoT Networks with Optimized
Communication and Resources [98.18365881575805]
協調学習技術のパラダイムとしてのフェデレートラーニング(FL)は研究の注目を集めている。
無線システム上での高速応答および高精度FLスキームの検証が重要である。
提案する通信効率のよいフェデレーション学習フレームワークは,強い線形速度で収束することを示す。
論文 参考訳(メタデータ) (2021-10-22T13:25:57Z) - Communication-Efficient Hierarchical Federated Learning for IoT
Heterogeneous Systems with Imbalanced Data [42.26599494940002]
フェデレートラーニング(Federated Learning, FL)は、複数のノードが協調してディープラーニングモデルをトレーニングできる分散ラーニング方法論である。
本稿では,IoTヘテロジニアスシステムにおける階層FLの可能性について検討する。
複数のエッジノード上でのユーザ割り当てとリソース割り当てに最適化されたソリューションを提案する。
論文 参考訳(メタデータ) (2021-07-14T08:32:39Z) - Blockchain Assisted Decentralized Federated Learning (BLADE-FL):
Performance Analysis and Resource Allocation [119.19061102064497]
ブロックチェーンをFL、すなわちブロックチェーン支援分散学習(BLADE-FL)に統合することで、分散FLフレームワークを提案する。
提案されたBLADE-FLのラウンドでは、各クライアントはトレーニング済みモデルを他のクライアントにブロードキャストし、受信したモデルに基づいてブロックを生成し、次のラウンドのローカルトレーニングの前に生成されたブロックからモデルを集約します。
遅延クライアントがblade-flの学習性能に与える影響を調査し,最適なk,学習パラメータ,遅延クライアントの割合の関係を特徴付ける。
論文 参考訳(メタデータ) (2021-01-18T07:19:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。