論文の概要: FedOAED: Federated On-Device Autoencoder Denoiser for Heterogeneous Data under Limited Client Availability
- arxiv url: http://arxiv.org/abs/2512.17986v1
- Date: Fri, 19 Dec 2025 15:35:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-23 18:54:32.140343
- Title: FedOAED: Federated On-Device Autoencoder Denoiser for Heterogeneous Data under Limited Client Availability
- Title(参考訳): FedOAED: クライアントの可用性が制限された不均一データのためのデバイス上でのフェデレーションオートエンコーダデノイザ
- Authors: S M Ruhul Kabir Howlader, Xiao Chen, Yifei Xie, Lu Liu,
- Abstract要約: FedOAEDはデバイス上のオートエンコーダをクライアントサイドに組み込んで、クライアント・ドリフトとクライアント・アベイラビリティの制限下での不均一なデータから生じる分散を緩和する。
非IID設定下での複数のビジョンデータセットの実験は、FedOAEDが一貫して最先端のベースラインを上回っていることを示している。
- 参考スコア(独自算出の注目度): 5.8815174424045695
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Over the last few decades, machine learning (ML) and deep learning (DL) solutions have demonstrated their potential across many applications by leveraging large amounts of high-quality data. However, strict data-sharing regulations such as the General Data Protection Regulation (GDPR) and the Health Insurance Portability and Accountability Act (HIPAA) have prevented many data-driven applications from being realised. Federated Learning (FL), in which raw data never leaves local devices, has shown promise in overcoming these limitations. Although FL has grown rapidly in recent years, it still struggles with heterogeneity, which produces gradient noise, client-drift, and increased variance from partial client participation. In this paper, we propose FedOAED, a novel federated learning algorithm designed to mitigate client-drift arising from multiple local training updates and the variance induced by partial client participation. FedOAED incorporates an on-device autoencoder denoiser on the client side to mitigate client-drift and variance resulting from heterogeneous data under limited client availability. Experiments on multiple vision datasets under Non-IID settings demonstrate that FedOAED consistently outperforms state-of-the-art baselines.
- Abstract(参考訳): 過去数十年間、機械学習(ML)とディープラーニング(DL)ソリューションは、大量の高品質なデータを活用することで、多くのアプリケーションでその可能性を実証してきた。
しかし、GDPR(General Data Protection Regulation)やHIPAA(Health Insurance Portability and Accountability Act)などの厳格なデータ共有規則は、多くのデータ駆動型アプリケーションの実現を妨げている。
生データがローカルデバイスを離れることは決してないフェデレートラーニング(FL)は、これらの制限を克服することを約束している。
近年、FLは急速に成長しているが、勾配ノイズ、クライアント・ドリフト、および部分的なクライアント参加によるばらつきを生じさせる不均一性に苦慮している。
本稿では,複数のローカルトレーニング更新から生じるクライアント・ドリフトと,部分的クライアント参加による分散を緩和する新しいフェデレーション学習アルゴリズムであるFedOAEDを提案する。
FedOAEDはデバイス上のオートエンコーダをクライアント側に組み込んで、クライアント・ドリフトとクライアント・アベイラビリティの制限下での不均一なデータから生じる分散を緩和する。
非IID設定下での複数のビジョンデータセットの実験は、FedOAEDが一貫して最先端のベースラインを上回っていることを示している。
関連論文リスト
- Stragglers Can Contribute More: Uncertainty-Aware Distillation for Asynchronous Federated Learning [61.249748418757946]
Asynchronous Federated Learning (FL)は、その効率性とスケーラビリティの向上に注目されている。
我々は,不確実性を考慮した蒸留を組み込んだ新しいフレームワークであるFedEchoを提案し,非同期FL性能を向上する。
FedEchoが既存の非同期フェデレーション学習ベースラインを一貫して上回っていることを実証する。
論文 参考訳(メタデータ) (2025-11-25T06:25:25Z) - Federated Distillation on Edge Devices: Efficient Client-Side Filtering for Non-IID Data [4.758807762853925]
フェデレーテッド・ラーニングは、有望なコラボレーティブ・機械学習のアプローチとして登場した。
本稿では,クライアント側密度比推定の複雑さを低減し,資源効率の高いEdgeFD手法を提案する。
我々は、知識蒸留のためにサーバー上で事前訓練された教師モデルを必要とすることなく、強力な非IID、弱い非IID、およびクライアント上のIDデータ分布を含む様々な実践シナリオでEdgeFDを評価する。
論文 参考訳(メタデータ) (2025-08-20T15:17:59Z) - PeFAD: A Parameter-Efficient Federated Framework for Time Series Anomaly Detection [51.20479454379662]
私たちはaを提案します。
フェデレートされた異常検出フレームワークであるPeFADは、プライバシーの懸念が高まっている。
我々は、4つの実際のデータセットに対して広範な評価を行い、PeFADは既存の最先端ベースラインを最大28.74%上回っている。
論文 参考訳(メタデータ) (2024-06-04T13:51:08Z) - Stable Diffusion-based Data Augmentation for Federated Learning with Non-IID Data [9.045647166114916]
フェデレートラーニング(FL)は、分散的かつ協調的なモデルトレーニングのための有望なパラダイムである。
FLは、非独立分散(Non-IID)データ分散に直面すると、パフォーマンスの大幅な低下と収束性の低下に悩まされる。
我々は、最先端のテキスト・ツー・イメージ基盤モデルの強力な能力を活用する新しいアプローチであるGen-FedSDを紹介する。
論文 参考訳(メタデータ) (2024-05-13T16:57:48Z) - Personalized Federated Learning with Attention-based Client Selection [57.71009302168411]
我々は,意図に基づくクライアント選択機構を備えた新しいPFLアルゴリズムであるFedACSを提案する。
FedACSは、類似したデータ分散を持つクライアント間のコラボレーションを強化するためのアテンションメカニズムを統合している。
CIFAR10とFMNISTの実験は、FedACSの優位性を検証する。
論文 参考訳(メタデータ) (2023-12-23T03:31:46Z) - PS-FedGAN: An Efficient Federated Learning Framework Based on Partially
Shared Generative Adversarial Networks For Data Privacy [56.347786940414935]
分散計算のための効果的な学習パラダイムとして、フェデレートラーニング(FL)が登場した。
本研究は,部分的なGANモデル共有のみを必要とする新しいFLフレームワークを提案する。
PS-FedGANと名付けられたこの新しいフレームワークは、異種データ分散に対処するためのGANリリースおよびトレーニングメカニズムを強化する。
論文 参考訳(メタデータ) (2023-05-19T05:39:40Z) - Personalized Federated Learning under Mixture of Distributions [98.25444470990107]
本稿では,ガウス混合モデル(GMM)を用いたPFL(Personalized Federated Learning)を提案する。
FedGMMはオーバーヘッドを最小限に抑え、新しいクライアントに適応する付加的なアドバンテージを持ち、不確実な定量化を可能にします。
PFL分類と新しいサンプル検出の両方において, 合成データセットとベンチマークデータセットの実証評価により, 提案手法の優れた性能を示した。
論文 参考訳(メタデータ) (2023-05-01T20:04:46Z) - Federated Learning with Uncertainty-Based Client Clustering for
Fleet-Wide Fault Diagnosis [5.684489493030555]
フェデレートラーニングは、複数のオペレータのデータセットを活用して分散化されたアセット障害診断モデルをトレーニングする、有望なソリューションとして登場した。
本稿では、データセットの類似性に基づいて、クライアントをフェデレーション用にクラスタリングする新しいクラスタリングベースのFLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-04-26T04:23:59Z) - Federated Learning in Non-IID Settings Aided by Differentially Private
Synthetic Data [20.757477553095637]
Federated Learning(FL)は、クライアントが機械学習モデルを協調的にトレーニングすることを可能にする、プライバシプロモーティングフレームワークである。
連合学習における大きな課題は、局所データが不均一であるときに生じる。
我々は、クライアントが変動自動エンコーダをデプロイして、遅延データ表現の微分プライベートな手段を用いて、ローカルデータセットを合成するFLアルゴリズムであるFedDPMSを提案する。
論文 参考訳(メタデータ) (2022-06-01T18:00:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。