論文の概要: High-Energy Concentration for Federated Learning in Frequency Domain
- arxiv url: http://arxiv.org/abs/2509.12630v1
- Date: Tue, 16 Sep 2025 03:49:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-17 17:50:52.867506
- Title: High-Energy Concentration for Federated Learning in Frequency Domain
- Title(参考訳): 周波数領域におけるフェデレーション学習のための高エネルギー集中
- Authors: Haozhi Shi, Weiying Xie, Hangyu Ye, Daixun Li, Jitao Ma, Leyuan Fang,
- Abstract要約: 本稿では,高エネルギー濃度FL法(FedFD)を提案する。
FedFDは、離散コサイン変換が主に高エネルギー濃度と呼ばれる特定の領域にエネルギーを分配するという発見に触発されている。
5つの画像および音声データセットにおいて、FedFDは通信コストを低減しつつ、最先端の手法よりも優れた性能を達成する。
- 参考スコア(独自算出の注目度): 36.76529300837211
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Learning (FL) presents significant potential for collaborative optimization without data sharing. Since synthetic data is sent to the server, leveraging the popular concept of dataset distillation, this FL framework protects real data privacy while alleviating data heterogeneity. However, such methods are still challenged by the redundant information and noise in entire spatial-domain designs, which inevitably increases the communication burden. In this paper, we propose a novel Frequency-Domain aware FL method with high-energy concentration (FedFD) to address this problem. Our FedFD is inspired by the discovery that the discrete cosine transform predominantly distributes energy to specific regions, referred to as high-energy concentration. The principle behind FedFD is that low-energy like high-frequency components usually contain redundant information and noise, thus filtering them helps reduce communication costs and optimize performance. Our FedFD is mathematically formulated to preserve the low-frequency components using a binary mask, facilitating an optimal solution through frequency-domain distribution alignment. In particular, real data-driven synthetic classification is imposed into the loss to enhance the quality of the low-frequency components. On five image and speech datasets, FedFD achieves superior performance than state-of-the-art methods while reducing communication costs. For example, on the CIFAR-10 dataset with Dirichlet coefficient $\alpha = 0.01$, FedFD achieves a minimum reduction of 37.78\% in the communication cost, while attaining a 10.88\% performance gain.
- Abstract(参考訳): フェデレートラーニング(FL)は、データ共有なしで協調的な最適化を行う大きな可能性を示す。
合成データは、一般的なデータセット蒸留の概念を活用してサーバに送信されるため、このFLフレームワークは、データの均一性を緩和しながら、実際のデータのプライバシを保護する。
しかし、このような手法は空間領域全体の冗長な情報やノイズによって依然として挑戦され、通信負担は必然的に増大する。
本稿では,高エネルギー濃度FL法(FedFD)を提案する。
私たちのFedFDは、離散コサイン変換が主に高エネルギー濃度と呼ばれる特定の領域にエネルギーを分配するという発見にインスピレーションを受けています。
FedFDの背後にある原則は、高周波コンポーネントのような低エネルギーは、通常冗長な情報とノイズを含んでいるため、それらをフィルタリングすることで通信コストを削減し、性能を最適化する。
我々のFedFDは、二乗マスクを用いて低周波成分を保存するために数学的に定式化され、周波数領域分布アライメントによる最適解が導かれる。
特に、低周波成分の品質を高めるために、実際のデータ駆動合成分類が損失に課される。
5つの画像および音声データセットにおいて、FedFDは通信コストを低減しつつ、最先端の手法よりも優れた性能を達成する。
例えば、ディリクレ係数$\alpha = 0.01$のCIFAR-10データセットでは、FedFDは通信コストの37.78\%を最小で削減し、10.88\%のパフォーマンス向上を達成する。
関連論文リスト
- Improving Noise Efficiency in Privacy-preserving Dataset Distillation [59.57846442477106]
本稿では,最適化からサンプリングを分離してコンバージェンスを向上し,信号品質を向上させる新しいフレームワークを提案する。
CIFAR-10では,従来の最先端手法の蒸留セットサイズを5分の1に減らして,クラス毎50イメージでtextbf10.0%,クラス毎50イメージで textbf8.3%向上した。
論文 参考訳(メタデータ) (2025-08-03T13:15:52Z) - FlexFed: Mitigating Catastrophic Forgetting in Heterogeneous Federated Learning in Pervasive Computing Environments [4.358456799125694]
広汎なコンピューティング環境(例えばヒューマンアクティビティ認識、HAR)は、リソース制約されたエンドデバイス、ストリーミングセンサーデータ、断続的なクライアント参加によって特徴づけられる。
我々は,効率的なメモリ使用のためにデータ保持を優先し,オフライントレーニング頻度を動的に調整する新しいFLアプローチFlexFedを提案する。
また、ストリーミングデータ、動的分散、不均衡、可用性の変動をシミュレートする現実的なHARベースの評価フレームワークを開発した。
論文 参考訳(メタデータ) (2025-05-19T14:23:37Z) - Federated Low-Rank Adaptation with Differential Privacy over Wireless Networks [24.667581521367357]
Federated Fine-tuning (FedFT)は、生データを共有せずに協調的なモデルトレーニングを促進することで、いくつかのプライバシー問題を緩和する。
FedFTにおけるプライバシーの盗聴攻撃のリスクは、特に医療や金融などの機密分野において懸念されている。
無線ネットワーク上での差分プライバシー(DP)を考慮したFedFTフレームワークを提案する。
論文 参考訳(メタデータ) (2024-11-12T14:01:08Z) - Towards Resource-Efficient Federated Learning in Industrial IoT for Multivariate Time Series Analysis [50.18156030818883]
異常と欠落したデータは、産業応用における厄介な問題を構成する。
ディープラーニングによる異常検出が重要な方向として現れている。
エッジデバイスで収集されたデータは、ユーザのプライバシを含む。
論文 参考訳(メタデータ) (2024-11-06T15:38:31Z) - FedFT: Improving Communication Performance for Federated Learning with Frequency Space Transformation [0.361593752383807]
フェデレート学習環境におけるモデルパラメータを伝達するための簡易かつ効果的な手法であるFedFT(Federated frequency-space transformation)を導入する。
FedFTは離散コサイン変換(DCT)を用いて周波数空間のモデルパラメータを表現し、効率的な圧縮と通信オーバーヘッドの低減を実現している。
我々は,3つの最先端FLベースラインとの比較研究を用いて,FedFT手法の4つのデータセット上での汎用性を実証した。
論文 参考訳(メタデータ) (2024-09-08T23:05:35Z) - PS-FedGAN: An Efficient Federated Learning Framework Based on Partially
Shared Generative Adversarial Networks For Data Privacy [56.347786940414935]
分散計算のための効果的な学習パラダイムとして、フェデレートラーニング(FL)が登場した。
本研究は,部分的なGANモデル共有のみを必要とする新しいFLフレームワークを提案する。
PS-FedGANと名付けられたこの新しいフレームワークは、異種データ分散に対処するためのGANリリースおよびトレーニングメカニズムを強化する。
論文 参考訳(メタデータ) (2023-05-19T05:39:40Z) - FedFM: Anchor-based Feature Matching for Data Heterogeneity in Federated
Learning [91.74206675452888]
本稿では,各クライアントの特徴を共有カテゴリーのアンカーにマッチさせる新しいFedFM法を提案する。
効率と柔軟性を向上させるため,FedFM-Liteと呼ばれるFedFM変種を提案し,クライアントは同期時間と通信帯域幅のコストを少なくしてサーバと通信する。
論文 参考訳(メタデータ) (2022-10-14T08:11:34Z) - Federated Learning for Energy-limited Wireless Networks: A Partial Model
Aggregation Approach [79.59560136273917]
デバイス間の限られた通信資源、帯域幅とエネルギー、およびデータ不均一性は、連邦学習(FL)の主要なボトルネックである
まず、部分モデルアグリゲーション(PMA)を用いた新しいFLフレームワークを考案する。
提案されたPMA-FLは、2つの典型的な異種データセットにおいて2.72%と11.6%の精度を改善する。
論文 参考訳(メタデータ) (2022-04-20T19:09:52Z) - Sparse Federated Learning with Hierarchical Personalized Models [24.763028713043468]
フェデレートラーニング(FL)は、ユーザのプライベートデータを収集することなく、プライバシセーフで信頼性の高い協調トレーニングを実現する。
階層型パーソナライズされたモデルを用いたスパースフェデレーション学習(sFedHP)という,モロー包絡に基づく階層型近位写像を用いたパーソナライズされたFLアルゴリズムを提案する。
また、連続的に微分可能な近似L1ノルムをスパース制約として使用して通信コストを低減させる。
論文 参考訳(メタデータ) (2022-03-25T09:06:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。