論文の概要: An Efficient Imbalance-Aware Federated Learning Approach for Wearable
Healthcare with Autoregressive Ratio Observation
- arxiv url: http://arxiv.org/abs/2310.14784v2
- Date: Mon, 30 Oct 2023 09:17:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-01 22:15:15.505604
- Title: An Efficient Imbalance-Aware Federated Learning Approach for Wearable
Healthcare with Autoregressive Ratio Observation
- Title(参考訳): 自己回帰率観察によるウェアラブル医療の効率的不均衡を考慮したフェデレーション学習手法
- Authors: Wenhao Yan, He Li, Kaoru Ota, Mianxiong Dong
- Abstract要約: 我々は,フェデレート学習シナリオにおけるクラス不均衡の課題に対処するために,新しいフェデレーション学習フレームワークであるFedImTを提案する。
FedImTには、アグリゲーションの各ラウンドでデータ構成を推定できるオンラインスキームが含まれている。
実験は、余剰エネルギー消費やプライバシーリスクを回避することなく、不均衡問題を解決するためのFedImTの有効性を示す。
- 参考スコア(独自算出の注目度): 14.898997913387158
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Widely available healthcare services are now getting popular because of
advancements in wearable sensing techniques and mobile edge computing. People's
health information is collected by edge devices such as smartphones and
wearable bands for further analysis on servers, then send back suggestions and
alerts for abnormal conditions. The recent emergence of federated learning
allows users to train private data on local devices while updating models
collaboratively. However, the heterogeneous distribution of the health
condition data may lead to significant risks to model performance due to class
imbalance. Meanwhile, as FL training is powered by sharing gradients only with
the server, training data is almost inaccessible. The conventional solutions to
class imbalance do not work for federated learning. In this work, we propose a
new federated learning framework FedImT, dedicated to addressing the challenges
of class imbalance in federated learning scenarios. FedImT contains an online
scheme that can estimate the data composition during each round of aggregation,
then introduces a self-attenuating iterative equivalent to track variations of
multiple estimations and promptly tweak the balance of the loss computing for
minority classes. Experiments demonstrate the effectiveness of FedImT in
solving the imbalance problem without extra energy consumption and avoiding
privacy risks.
- Abstract(参考訳): ウェアラブルセンシング技術やモバイルエッジコンピューティングの進歩により、広く利用可能な医療サービスが普及しています。
人々の健康情報は、スマートフォンやウェアラブルバンドなどのエッジデバイスによって収集され、サーバーのさらなる分析を行い、異常な状況に対する提案や警告を送信します。
近年のフェデレーション学習では、ローカルデバイス上でプライベートデータをトレーニングし、モデルを共同で更新することが可能になる。
しかしながら、健康状態データの不均質な分布は、クラス不均衡によるパフォーマンスのモデル化に重大なリスクをもたらす可能性がある。
一方、FLトレーニングはサーバとのみグラデーションを共有することで実現されているため、トレーニングデータはほとんどアクセスできない。
クラス不均衡に対する従来の解決策は、連合学習には役立ちません。
本研究では,フェデレーション学習シナリオにおけるクラス不均衡の課題に対処するために,新しいフェデレーション学習フレームワークfedimtを提案する。
FedImTには、アグリゲーションの各ラウンドでデータ構成を推定するオンラインスキームが含まれており、その後、複数の推定のバリエーションを追跡するための自己減衰反復を導入し、少数クラスの損失計算のバランスを迅速に調整する。
実験は、余剰エネルギー消費やプライバシーリスクを回避することなく、不均衡問題を解決するためのFedImTの有効性を示す。
関連論文リスト
- Addressing Class Variable Imbalance in Federated Semi-supervised
Learning [10.542178602467885]
我々は,クラス変数の不均衡を解決するために,FCVI(Federated Semi-supervised Learning for Class Variable Im Balance)を提案する。
FCVIは、クラス数の変化によるデータの不均衡を軽減するために使用される。
クライアントのプライバシを維持しながら,ベースライン方式よりもはるかに優れた手法であることが実証された。
論文 参考訳(メタデータ) (2023-03-21T12:50:17Z) - A Survey on Class Imbalance in Federated Learning [6.632451878730774]
フェデレーション学習は、ネットワーク内の複数のクライアントデバイスが、クライアントのデータを直接露出することなく、機械学習モデルを共同でトレーニングすることを可能にする。
連合学習で訓練されたモデルは通常、標準集中学習モードで訓練されたモデルよりもパフォーマンスが悪いことが判明した。
論文 参考訳(メタデータ) (2023-03-21T08:34:23Z) - Combating Exacerbated Heterogeneity for Robust Models in Federated
Learning [91.88122934924435]
対人訓練と連合学習の組み合わせは、望ましくない頑丈さの劣化につながる可能性がある。
我々は、Slack Federated Adversarial Training (SFAT)と呼ばれる新しいフレームワークを提案する。
各種ベンチマークおよび実世界のデータセットに対するSFATの合理性と有効性を検証する。
論文 参考訳(メタデータ) (2023-03-01T06:16:15Z) - Federated Zero-Shot Learning for Visual Recognition [55.65879596326147]
本稿では,Federated Zero-Shot Learning FedZSLフレームワークを提案する。
FedZSLは、エッジデバイス上の分散データから中心的なモデルを学ぶ。
FedZSLの有効性と堅牢性は、3つのゼロショットベンチマークデータセットで実施された広範な実験によって実証された。
論文 参考訳(メタデータ) (2022-09-05T14:49:34Z) - Density-Aware Personalized Training for Risk Prediction in Imbalanced
Medical Data [89.79617468457393]
不均衡率(クラス密度差)のトレーニングモデルは、最適以下の予測につながる可能性がある。
この不均衡問題に対するモデルトレーニングのためのフレームワークを提案する。
実世界の医療データセットにおけるモデルの性能向上を実証する。
論文 参考訳(メタデータ) (2022-07-23T00:39:53Z) - FedHiSyn: A Hierarchical Synchronous Federated Learning Framework for
Resource and Data Heterogeneity [56.82825745165945]
フェデレートラーニング(FL)は、データプライバシを保護するために複数のデバイスに格納された分散生データを共有することなく、グローバルモデルのトレーニングを可能にする。
本稿では,階層型同期FLフレームワークであるFedHiSynを提案し,トラグラー効果や時代遅れモデルの問題に対処する。
提案手法は,MNIST,EMNIST,CIFAR10,CIFAR100のデータセットと多種多様なデバイス設定に基づいて評価する。
論文 参考訳(メタデータ) (2022-06-21T17:23:06Z) - Concept drift detection and adaptation for federated and continual
learning [55.41644538483948]
スマートデバイスは環境から大量のデータを収集することができる。
このデータは機械学習モデルのトレーニングに適しており、その振る舞いを大幅に改善することができる。
そこで本研究では,Concept-Drift-Aware Federated Averagingと呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2021-05-27T17:01:58Z) - Federated learning with class imbalance reduction [24.044750119251308]
フェデレートラーニング(Federated Learning, FL)は、多数のエッジコンピューティングデバイスが協調してグローバルラーニングモデルをトレーニングすることを可能にする技術である。
プライバシー上の懸念から、デバイス上の生データは集中型サーバでは利用できない。
本稿では,生データを意識せずにクラス分布を明らかにするための推定手法を提案する。
論文 参考訳(メタデータ) (2020-11-23T08:13:43Z) - Fed-Focal Loss for imbalanced data classification in Federated Learning [2.2172881631608456]
Federated Learningには、デバイスネットワーク上のモデルのトレーニングをコーディネートする中央サーバがある。
課題の1つは、データセットがクラス不均衡である場合の可変トレーニングパフォーマンスである。
焦点損失の線に沿って、適切に分類された例に割り当てられた損失を下げるように、クロスエントロピー損失を変形させることにより、クラス不均衡に対処することを提案する。
論文 参考訳(メタデータ) (2020-11-12T09:52:14Z) - Addressing Class Imbalance in Federated Learning [10.970632986559547]
Federated Learning(FL)は、ローカルクライアントデバイス上の分散データをトレーニングするための有望なアプローチである。
本研究では,FLラウンド毎のトレーニングデータの組成を推定し,その影響を軽減するために新しい損失関数 textbfRatio Loss を設計する。
論文 参考訳(メタデータ) (2020-08-14T07:28:08Z) - WAFFLe: Weight Anonymized Factorization for Federated Learning [88.44939168851721]
データが機密性やプライベート性を持つドメインでは、ローカルデバイスを離れることなく、分散的に学習できるメソッドには大きな価値があります。
本稿では,フェデレートラーニングのためのウェイト匿名化因子化(WAFFLe)を提案する。これは,インド・バフェット・プロセスとニューラルネットワークの重み要因の共有辞書を組み合わせたアプローチである。
論文 参考訳(メタデータ) (2020-08-13T04:26:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。