論文の概要: Lightweight and Robust Federated Data Valuation
- arxiv url: http://arxiv.org/abs/2509.25560v1
- Date: Mon, 29 Sep 2025 22:31:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-01 14:44:59.953371
- Title: Lightweight and Robust Federated Data Valuation
- Title(参考訳): 軽量でロバストなフェデレーションデータ評価
- Authors: Guojun Tang, Jiayu Zhou, Mohammad Mamun, Steve Drew,
- Abstract要約: フェデレーテッド・ラーニング(FL)は、非IIDデータ分散と敵対的クライアントの振る舞いにより、永続的な課題に直面している。
提案するFLアグリゲーションフレームワークであるFedIFは,トラジェクトリに基づく影響推定を利用して,クライアントのコントリビューションを効率的に計算する。
実世界の展開において,FedIFは,効率的かつ堅牢なFLを実現するために,Shapley値ベースのアプローチに代わる実用的で理論的に基礎的かつスケーラブルな代替手段として確立されている。
- 参考スコア(独自算出の注目度): 24.16107496848504
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning (FL) faces persistent robustness challenges due to non-IID data distributions and adversarial client behavior. A promising mitigation strategy is contribution evaluation, which enables adaptive aggregation by quantifying each client's utility to the global model. However, state-of-the-art Shapley-value-based approaches incur high computational overhead due to repeated model reweighting and inference, which limits their scalability. We propose FedIF, a novel FL aggregation framework that leverages trajectory-based influence estimation to efficiently compute client contributions. FedIF adapts decentralized FL by introducing normalized and smoothed influence scores computed from lightweight gradient operations on client updates and a public validation set. Theoretical analysis demonstrates that FedIF yields a tighter bound on one-step global loss change under noisy conditions. Extensive experiments on CIFAR-10 and Fashion-MNIST show that FedIF achieves robustness comparable to or exceeding SV-based methods in the presence of label noise, gradient noise, and adversarial samples, while reducing aggregation overhead by up to 450x. Ablation studies confirm the effectiveness of FedIF's design choices, including local weight normalization and influence smoothing. Our results establish FedIF as a practical, theoretically grounded, and scalable alternative to Shapley-value-based approaches for efficient and robust FL in real-world deployments.
- Abstract(参考訳): フェデレーテッド・ラーニング(FL)は、非IIDデータ分散と敵対的クライアントの振る舞いにより、永続的な堅牢性に直面する。
有望な緩和戦略はコントリビューション評価であり、各クライアントのユーティリティをグローバルモデルに定量化することでアダプティブアグリゲーションを可能にする。
しかし、最先端のShapley値ベースのアプローチでは、繰り返しモデルの再重み付けと推論によって高い計算オーバーヘッドが発生し、スケーラビリティが制限される。
提案するFLアグリゲーションフレームワークであるFedIFは,トラジェクトリに基づく影響推定を利用して,クライアントのコントリビューションを効率的に計算する。
FedIFは、クライアント更新と公開検証セットの軽量な勾配操作から計算された正規化およびスムーズな影響スコアを導入することで、分散FLに適応する。
理論的解析により、FedIFはノイズ条件下での1段階のグローバルな損失変化に厳密な拘束力を与えることが示された。
CIFAR-10とFashion-MNISTの大規模な実験により、FedIFはラベルノイズ、勾配ノイズ、および対向サンプルの存在下でSV法に匹敵するロバスト性を達成し、凝集オーバーヘッドを最大450倍に低減した。
アブレーション研究は、局所的な重量正規化や影響の平滑化を含むFedIFの設計選択の有効性を検証している。
実世界の展開において,FedIFは,効率的かつ堅牢なFLを実現するために,Shapley値ベースのアプローチに代わる実用的で理論的に基礎的かつスケーラブルな代替手段として確立されている。
関連論文リスト
- FedReFT: Federated Representation Fine-Tuning with All-But-Me Aggregation [12.544628972135905]
本稿では,クライアントの隠れ表現を微調整する新しい手法であるFederated Representation Fine-Tuning(FedReFT)を紹介する。
FedReFTは、隠された表現を直接操作するためにスパース介入層を適用し、軽量でセマンティックにリッチな微調整の代替を提供する。
We evaluate FedReFT on commonsense reasoning, arithmetic reasoning, instruction-tuning, and GLUE。
論文 参考訳(メタデータ) (2025-08-27T22:03:19Z) - FlexFed: Mitigating Catastrophic Forgetting in Heterogeneous Federated Learning in Pervasive Computing Environments [4.358456799125694]
広汎なコンピューティング環境(例えばヒューマンアクティビティ認識、HAR)は、リソース制約されたエンドデバイス、ストリーミングセンサーデータ、断続的なクライアント参加によって特徴づけられる。
我々は,効率的なメモリ使用のためにデータ保持を優先し,オフライントレーニング頻度を動的に調整する新しいFLアプローチFlexFedを提案する。
また、ストリーミングデータ、動的分散、不均衡、可用性の変動をシミュレートする現実的なHARベースの評価フレームワークを開発した。
論文 参考訳(メタデータ) (2025-05-19T14:23:37Z) - FedEFC: Federated Learning Using Enhanced Forward Correction Against Noisy Labels [2.8547732086436306]
フェデレートラーニング(FL)は、プライバシを保存する分散ラーニングのための強力なフレームワークである。
FLにおけるノイズの多いラベルの扱いは、不均一なデータ分散と通信制約のため、依然として大きな課題である。
FLにおける雑音ラベルの影響に対処する新しい手法であるFedEFCを提案する。
論文 参考訳(メタデータ) (2025-04-08T02:14:50Z) - FedPCA: Noise-Robust Fair Federated Learning via Performance-Capacity Analysis [39.424995330773264]
FedPCAは損失分散ペア上のガウス混合モデルを介して、誤ラベルされたクライアントを特定する。
クライアントの重みを調整し、信頼性のあるデータを選択的に利用することで、グローバルアグリゲーションとローカルトレーニングに公正性と堅牢性戦略を適用する。
論文 参考訳(メタデータ) (2025-03-13T17:18:18Z) - Feasible Learning [78.6167929413604]
本稿では,サンプル中心の学習パラダイムであるFeasible Learning(FL)を紹介する。
大規模言語モデルにおける画像分類, 年齢回帰, 好みの最適化といった経験的分析により, FLを用いて訓練したモデルでは, 平均的性能に限界があるものの, ERMと比較して改善された尾の挙動を示しながらデータから学習できることが実証された。
論文 参考訳(メタデータ) (2025-01-24T20:39:38Z) - Over-the-Air Fair Federated Learning via Multi-Objective Optimization [52.295563400314094]
本稿では,公平なFLモデルを訓練するためのOTA-FFL(Over-the-air Fair Federated Learning Algorithm)を提案する。
OTA-FFLの公正性とロバストな性能に対する優位性を示す実験を行った。
論文 参考訳(メタデータ) (2025-01-06T21:16:51Z) - An Aggregation-Free Federated Learning for Tackling Data Heterogeneity [50.44021981013037]
フェデレートラーニング(FL)は、分散データセットからの知識を活用する効果に頼っている。
従来のFLメソッドでは、クライアントが前回のトレーニングラウンドからサーバが集約したグローバルモデルに基づいてローカルモデルを更新するアグリゲート-then-adaptフレームワークを採用している。
我々は,新しいアグリゲーションフリーFLアルゴリズムであるFedAFを紹介する。
論文 参考訳(メタデータ) (2024-04-29T05:55:23Z) - Personalized Federated Learning under Mixture of Distributions [98.25444470990107]
本稿では,ガウス混合モデル(GMM)を用いたPFL(Personalized Federated Learning)を提案する。
FedGMMはオーバーヘッドを最小限に抑え、新しいクライアントに適応する付加的なアドバンテージを持ち、不確実な定量化を可能にします。
PFL分類と新しいサンプル検出の両方において, 合成データセットとベンチマークデータセットの実証評価により, 提案手法の優れた性能を示した。
論文 参考訳(メタデータ) (2023-05-01T20:04:46Z) - Fine-tuning Global Model via Data-Free Knowledge Distillation for
Non-IID Federated Learning [86.59588262014456]
フェデレートラーニング(Federated Learning, FL)は、プライバシ制約下での分散学習パラダイムである。
サーバ内のグローバルモデル(FedFTG)を微調整するデータフリー知識蒸留法を提案する。
私たちのFedFTGは最先端(SOTA)のFLアルゴリズムよりも優れており、FedAvg、FedProx、FedDyn、SCAFFOLDの強化のための強力なプラグインとして機能します。
論文 参考訳(メタデータ) (2022-03-17T11:18:17Z) - FedPrune: Towards Inclusive Federated Learning [1.308951527147782]
フェデレートラーニング(Federated Learning, FL)は、分散データの共有モデルをプライバシ保護形式でトレーニングする分散学習技術である。
我々は,この課題に対処するシステムであるFedPruneを提案する。
Central Limit Theoremからの洞察を利用することで、FedPruneは非IIDデータよりも堅牢なパフォーマンスを実現する新しい集約テクニックを取り入れている。
論文 参考訳(メタデータ) (2021-10-27T06:33:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。