論文の概要: Noise-aware Client Selection for carbon-efficient Federated Learning via Gradient Norm Thresholding
- arxiv url: http://arxiv.org/abs/2603.04194v1
- Date: Wed, 04 Mar 2026 15:43:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-05 21:29:15.380745
- Title: Noise-aware Client Selection for carbon-efficient Federated Learning via Gradient Norm Thresholding
- Title(参考訳): 勾配ノルム閾値を用いた炭素効率フェデレーション学習のための雑音対応クライアント選択
- Authors: Patrick Wilhelm, Inese Yilmaz, Odej Kao,
- Abstract要約: 我々は、炭素効率のフェデレート学習のための最先端クライアント選択戦略の上にモジュラーアプローチを導入する。
本手法は,ノイズの多いクライアントデータフィルタリングを組み込むことでロバスト性を高め,モデル性能と持続可能性の両方を改善した。
- 参考スコア(独自算出の注目度): 1.3585661787562995
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Training large-scale Neural Networks requires substantial computational power and energy. Federated Learning enables distributed model training across geospatially distributed data centers, leveraging renewable energy sources to reduce the carbon footprint of AI training. Various client selection strategies have been developed to align the volatility of renewable energy with stable and fair model training in a federated system. However, due to the privacy-preserving nature of Federated Learning, the quality of data on client devices remains unknown, posing challenges for effective model training. In this paper, we introduce a modular approach on top to state-of-the-art client selection strategies for carbon-efficient Federated Learning. Our method enhances robustness by incorporating a noisy client data filtering, improving both model performance and sustainability in scenarios with unknown data quality. Additionally, we explore the impact of carbon budgets on model convergence, balancing efficiency and sustainability. Through extensive evaluations, we demonstrate that modern client selection strategies based on local client loss tend to select clients with noisy data, ultimately degrading model performance. To address this, we propose a gradient norm thresholding mechanism using probing rounds for more effective client selection and noise detection, contributing to the practical deployment of carbon-efficient Federated Learning.
- Abstract(参考訳): 大規模ニューラルネットワークの訓練には、かなりの計算力とエネルギーが必要である。
Federated Learningは、地理的に分散したデータセンターをまたいだ分散モデルトレーニングを可能にし、再生可能エネルギー源を活用して、AIトレーニングのカーボンフットプリントを削減する。
再生可能エネルギーのボラティリティを、フェデレートシステムにおける安定かつ公正なモデルトレーニングと整合させるため、様々なクライアント選択戦略が開発されている。
しかし、フェデレートラーニングのプライバシー保護の性質から、クライアントデバイスのデータの質は依然として不明であり、効果的なモデルトレーニングの課題を提起している。
本稿では,炭素効率のフェデレート学習のための最先端クライアント選択戦略に,モジュラーアプローチを導入する。
本手法は,ノイズの多いクライアントデータフィルタリングを導入し,未知のデータ品質のシナリオにおけるモデル性能と持続可能性の両方を改善し,ロバスト性を向上させる。
さらに,炭素収支がモデル収束,効率のバランス,持続可能性に与える影響についても検討する。
大規模な評価を通じて、局所的なクライアント損失に基づく最新のクライアント選択戦略は、ノイズの多いデータでクライアントを選択する傾向にあり、最終的にはモデル性能が低下することを示した。
そこで本研究では,より効率的なクライアント選択とノイズ検出のために,探索ラウンドを用いた勾配標準しきい値設定機構を提案し,炭素効率の高いフェデレート学習の実践的展開に寄与する。
関連論文リスト
- FedCCA: Client-Centric Adaptation against Data Heterogeneity in Federated Learning on IoT Devices [16.902104043318975]
クライアント中心適応学習(Client-Centric Adaptation Federated Learning, FedCCA)は、クライアント固有の知識を最適に活用し、各クライアントのユニークなモデルを学ぶアルゴリズムである。
我々は,FedCCAの有効性を評価するために,多様なデータセットに関する広範な実験を行った。
論文 参考訳(メタデータ) (2026-01-25T06:01:19Z) - Decentralized Dynamic Cooperation of Personalized Models for Federated Continual Learning [50.56947843548702]
フェデレーション型連続学習のための分散動的協調フレームワークを提案する。
顧客は、新しい知識の獲得と事前学習の維持のバランスをとるために、動的な協調学習連合を確立する。
また、協調的・動的平衡を達成するために、マージブロックアルゴリズムと動的協調的進化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-09-28T06:53:23Z) - Robust Asymmetric Heterogeneous Federated Learning with Corrupted Clients [60.22876915395139]
本稿では、異種・データ破損クライアントをモデルとした頑健な連立学習課題について検討する。
データ破損は、ランダムノイズ、圧縮アーティファクト、現実のデプロイメントにおける環境条件などの要因によって避けられない。
本稿では,これらの問題に対処する新しいロバスト非対称不均一なフェデレート学習フレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-12T09:52:04Z) - HFedCKD: Toward Robust Heterogeneous Federated Learning via Data-free Knowledge Distillation and Two-way Contrast [10.652998357266934]
データフリーな知識蒸留と双方向コントラスト(HFedCKD)に基づくヘテロジニアスフェデレーション方式を提案する。
HFedCKDは、データフリーな知識蒸留における低い参加率による知識オフセットを効果的に軽減し、モデルの性能と安定性を向上させる。
我々は画像とIoTデータセットに関する広範な実験を行い、提案したHFedCKDフレームワークの一般化と堅牢性を包括的に評価し、検証する。
論文 参考訳(メタデータ) (2025-03-09T08:32:57Z) - Adversarial Federated Consensus Learning for Surface Defect Classification Under Data Heterogeneity in IIoT [8.48069043458347]
産業用IoT(Industrial Internet of Things)における各種エンティティからの十分なトレーニングデータの収集と集中化は難しい。
フェデレートラーニング(FL)は、クライアント間で協調的なグローバルモデルトレーニングを可能にするソリューションを提供する。
我々は,Adversarial Federated Consensus Learning (AFedCL) という新しいFLアプローチを提案する。
論文 参考訳(メタデータ) (2024-09-24T03:59:32Z) - FedCAda: Adaptive Client-Side Optimization for Accelerated and Stable Federated Learning [57.38427653043984]
フェデレートラーニング(FL)は、分散クライアント間の機械学習モデルの協調トレーニングにおいて、顕著なアプローチとして登場した。
我々は,この課題に対処するために設計された,革新的なクライアント適応アルゴリズムであるFedCAdaを紹介する。
我々はFedCAdaが適応性、収束性、安定性、全体的な性能の点で最先端の手法より優れていることを実証する。
論文 参考訳(メタデータ) (2024-05-20T06:12:33Z) - FedAA: A Reinforcement Learning Perspective on Adaptive Aggregation for Fair and Robust Federated Learning [5.622065847054885]
Federated Learning (FL)は、分散デバイス間でのプライバシ保護モデルトレーニングのための有望なアプローチとして登場した。
我々はtextbfAdaptive textbfAggregation を通じてクライアントのコントリビューションを最適化する textbfFedAA という新しい手法を導入し、悪意のあるクライアントに対するモデルロバスト性を高める。
論文 参考訳(メタデータ) (2024-02-08T10:22:12Z) - Federated Learning While Providing Model as a Service: Joint Training
and Inference Optimization [30.305956110710266]
フェデレーション学習は、分散クライアント間のモデルのトレーニングを可能にする上で有益である。
既存の作業は、クライアントの限られたリソースの下でのモデルトレーニングと推論の共存を見落としている。
本稿では,クライアントにおける推論性能を最大化するために,モデルトレーニングと推論の協調最適化に焦点を当てる。
論文 参考訳(メタデータ) (2023-12-20T09:27:09Z) - CAFE: Carbon-Aware Federated Learning in Geographically Distributed Data
Centers [18.54380015603228]
大規模人工知能(AI)モデルの訓練には、計算能力とエネルギーが要求されるため、炭素フットプリントが増加し、環境に悪影響を及ぼす可能性がある。
本稿は、地理的に分散した(地理的に分散した)データセンターでAIモデルをトレーニングする際の課題を考察し、学習性能と炭素フットプリントのバランスを強調する。
固定炭素フットプリント予算内でのトレーニングを最適化するために,CAFE(Carbon-Aware Federated Learning)と呼ばれる新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-11-06T23:59:22Z) - Learning Objective-Specific Active Learning Strategies with Attentive
Neural Processes [72.75421975804132]
学び アクティブラーニング(LAL)は、アクティブラーニング戦略自体を学ぶことを提案し、与えられた設定に適応できるようにする。
能動学習問題の対称性と独立性を利用した新しい分類法を提案する。
私たちのアプローチは、筋電図から学ぶことに基づいており、モデルに標準ではない目的に適応する能力を与えます。
論文 参考訳(メタデータ) (2023-09-11T14:16:37Z) - Personalizing Federated Learning with Over-the-Air Computations [84.8089761800994]
フェデレートされたエッジ学習は、プライバシー保護の方法で無線ネットワークのエッジにインテリジェンスをデプロイする、有望な技術である。
このような設定の下で、複数のクライアントは、エッジサーバの調整の下でグローバルジェネリックモデルを協調的にトレーニングする。
本稿では,アナログオーバー・ザ・エア計算を用いて通信ボトルネックに対処する分散トレーニングパラダイムを提案する。
論文 参考訳(メタデータ) (2023-02-24T08:41:19Z) - Fed-CBS: A Heterogeneity-Aware Client Sampling Mechanism for Federated
Learning via Class-Imbalance Reduction [76.26710990597498]
本研究では,ランダムに選択したクライアントからのグループデータのクラス不均衡が,性能の大幅な低下につながることを示す。
我々のキーとなる観測に基づいて、我々は効率的なクライアントサンプリング機構、すなわちフェデレートクラスバランスサンプリング(Fed-CBS)を設計する。
特に、クラス不均衡の尺度を提案し、その後、同型暗号化を用いてプライバシー保護方式でこの尺度を導出する。
論文 参考訳(メタデータ) (2022-09-30T05:42:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。