論文の概要: FedShard: Federated Unlearning with Efficiency Fairness and Performance Fairness
- arxiv url: http://arxiv.org/abs/2508.09866v1
- Date: Wed, 13 Aug 2025 15:02:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-14 20:42:00.938719
- Title: FedShard: Federated Unlearning with Efficiency Fairness and Performance Fairness
- Title(参考訳): FedShard: 効率の公平性とパフォーマンスの公正性を備えたフェデレーション・アンラーニング
- Authors: Siyuan Wen, Meng Zhang, Yang Yang, Ningning Ding,
- Abstract要約: FedShardは、効率の公平性とパフォーマンスの公正性の両方を同時に保証するために設計された、最初の非学習アルゴリズムである。
我々は、FedShardがカスケード離脱や毒殺攻撃のような不公平なリスクを軽減していることを示す。
実験結果から、FedShardは、スクラッチからのトレーニングよりも1.3-6.2倍、最先端の未学習手法よりも4.9倍、データの未学習プロセスを加速することが示された。
- 参考スコア(独自算出の注目度): 6.845542857248022
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To protect clients' right to be forgotten in federated learning, federated unlearning aims to remove the data contribution of leaving clients from the global learned model. While current studies mainly focused on enhancing unlearning efficiency and effectiveness, the crucial aspects of efficiency fairness and performance fairness among decentralized clients during unlearning have remained largely unexplored. In this study, we introduce FedShard, the first federated unlearning algorithm designed to concurrently guarantee both efficiency fairness and performance fairness. FedShard adaptively addresses the challenges introduced by dilemmas among convergence, unlearning efficiency, and unlearning fairness. Furthermore, we propose two novel metrics to quantitatively assess the fairness of unlearning algorithms, which we prove to satisfy well-known properties in other existing fairness measurements. Our theoretical analysis and numerical evaluation validate FedShard's fairness in terms of both unlearning performance and efficiency. We demonstrate that FedShard mitigates unfairness risks such as cascaded leaving and poisoning attacks and realizes more balanced unlearning costs among clients. Experimental results indicate that FedShard accelerates the data unlearning process 1.3-6.2 times faster than retraining from scratch and 4.9 times faster than the state-of-the-art exact unlearning methods.
- Abstract(参考訳): フェデレーション学習において、忘れられているクライアントの権利を保護するために、フェデレーション未学習は、クライアントをグローバル学習モデルから離脱させることによるデータコントリビューションを取り除くことを目的としている。
現在の研究では、学習の効率性と効率性の向上に重点を置いているが、非学習中の分散クライアント間の効率の公平性とパフォーマンスの公平性の重要な側面は、まだ明らかにされていない。
本研究では,効率の公平性と性能の公正性の両方を同時に保証するフェデレーション・アンラーニングアルゴリズムであるFedShardを紹介する。
FedShardは、収束、未学習の効率、未学習の公平さのジレンマによってもたらされる課題に適応的に対処する。
さらに、未学習アルゴリズムの公正度を定量的に評価する2つの新しい指標を提案し、既存の公正度測定でよく知られた特性を満たすことを証明した。
理論的解析と数値評価により,FedShardの公平性を,学習性能と効率の両方の観点から評価した。
我々は、FedShardがカスケード離脱や毒殺攻撃などの不公平リスクを軽減し、クライアント間のバランスのない未学習コストをより高めることを実証した。
実験結果から、FedShardは、スクラッチからのトレーニングよりも1.3-6.2倍、最先端の未学習手法よりも4.9倍、データの未学習プロセスを加速することが示された。
関連論文リスト
- FedPCA: Noise-Robust Fair Federated Learning via Performance-Capacity Analysis [39.424995330773264]
FedPCAは損失分散ペア上のガウス混合モデルを介して、誤ラベルされたクライアントを特定する。
クライアントの重みを調整し、信頼性のあるデータを選択的に利用することで、グローバルアグリゲーションとローカルトレーニングに公正性と堅牢性戦略を適用する。
論文 参考訳(メタデータ) (2025-03-13T17:18:18Z) - Preference-Based Multi-Agent Reinforcement Learning: Data Coverage and Algorithmic Techniques [65.55451717632317]
PbMARL(Preference-based Multi-Agent Reinforcement Learning)について検討する。
一般ゲームにおける嗜好のみのオフラインデータセットからナッシュ平衡を同定する。
以上の結果から,PbMARLの多面的アプローチが示唆された。
論文 参考訳(メタデータ) (2024-09-01T13:14:41Z) - PUFFLE: Balancing Privacy, Utility, and Fairness in Federated Learning [2.8304839563562436]
公平さとプライバシの原則を同時に遵守するマシンラーニングモデルのトレーニングとデプロイは、大きな課題となる。
本稿では,FLシナリオにおける実用性,プライバシ,公正性のバランスを探究する上で有効な,高レベルのパラメータ化アプローチであるPUFFLEを紹介する。
PUFFLEは多様なデータセット,モデル,データ分布に対して有効であり,モデルの不公平性を75%まで低減し,最悪のシナリオでは有効性を最大17%削減できることを示す。
論文 参考訳(メタデータ) (2024-07-21T17:22:18Z) - Towards Effective Evaluations and Comparisons for LLM Unlearning Methods [97.2995389188179]
本稿では,大規模言語モデルにおける機械学習評価の精度向上を図る。
評価指標の堅牢性と、競合する目標間のトレードオフという、2つの重要な課題に対処します。
論文 参考訳(メタデータ) (2024-06-13T14:41:00Z) - RILe: Reinforced Imitation Learning [60.63173816209543]
RILe(Reinforced Learning)は、模倣学習と逆強化学習の強みを組み合わせて、高密度報酬関数を効率的に学習するフレームワークである。
本フレームワークは, 直接模倣が複雑な動作を再現できないような高次元タスクにおいて, 高い性能のポリシーを生成する。
論文 参考訳(メタデータ) (2024-06-12T17:56:31Z) - FedFDP: Fairness-Aware Federated Learning with Differential Privacy [28.58589747796768]
Federated Learning(FL)は、データサイロの課題に対処するために設計された、新興の機械学習パラダイムである。
公平性とデータプライバシに関する永続的な問題に対処するため,FedFairというフェアネスを考慮したFLアルゴリズムを提案する。
FedFairをベースとした差分プライバシーを導入し、公正性、プライバシ保護、モデルパフォーマンスのトレードオフに対処するFedFDPアルゴリズムを作成します。
論文 参考訳(メタデータ) (2024-02-25T08:35:21Z) - Relaxed Contrastive Learning for Federated Learning [48.96253206661268]
本稿では,フェデレート学習におけるデータ不均一性の課題に対処する,新しいコントラスト学習フレームワークを提案する。
当社のフレームワークは,既存のフェデレート学習アプローチを,標準ベンチマークにおいて大きなマージンで上回ります。
論文 参考訳(メタデータ) (2024-01-10T04:55:24Z) - Exploring Federated Unlearning: Review, Comparison, and Insights [101.64910079905566]
フェデレーション・アンラーニングは、フェデレーション・システムで訓練されたモデルからデータを選択的に除去することを可能にする。
本稿では,既存のフェデレーション・アンラーニング手法について検討し,アルゴリズムの効率,モデル精度への影響,プライバシ保護の有効性について検討する。
フェデレートされたアンラーニング手法を評価するための統一ベンチマークであるOpenFederatedUnlearningフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-30T01:34:33Z) - Accelerating Fair Federated Learning: Adaptive Federated Adam [0.0]
データセットが独立で同一に分散されていない場合(非IID)、単純なフェデレーションアルゴリズムによってトレーニングされたモデルは、特定の参加者に偏りが生じる可能性がある。
これは連合学習における公平性問題として知られている。
本稿では,適応的フェデレーション・アダム(AdaFedAdam)を提案し,偏見を緩和して公正なフェデレーション・ラーニングを加速させる。
論文 参考訳(メタデータ) (2023-01-23T10:56:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。