論文の概要: Federated Unlearning in the Wild: Rethinking Fairness and Data Discrepancy
- arxiv url: http://arxiv.org/abs/2510.07022v1
- Date: Wed, 08 Oct 2025 13:47:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-09 16:41:20.526672
- Title: Federated Unlearning in the Wild: Rethinking Fairness and Data Discrepancy
- Title(参考訳): 野生におけるフェデレーション・アンラーニング - 公正性とデータの相違を再考する
- Authors: ZiHeng Huang, Di Wu, Jun Bai, Jiale Zhang, Sicong Cao, Ji Zhang, Yingjie Hu,
- Abstract要約: 機械学習は「忘れられる権利」のようなデータ削除の権利を強制するために重要である
分散パラダイムとして、フェデレートラーニング(FL)もアンラーニングを必要とする。
We propose a novel, fairness-aware FU approach, Federated Cross-Client-Constrains Unlearning (FedCCCU)。
- 参考スコア(独自算出の注目度): 17.398539259901483
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine unlearning is critical for enforcing data deletion rights like the "right to be forgotten." As a decentralized paradigm, Federated Learning (FL) also requires unlearning, but realistic implementations face two major challenges. First, fairness in Federated Unlearning (FU) is often overlooked. Exact unlearning methods typically force all clients into costly retraining, even those uninvolved. Approximate approaches, using gradient ascent or distillation, make coarse interventions that can unfairly degrade performance for clients with only retained data. Second, most FU evaluations rely on synthetic data assumptions (IID/non-IID) that ignore real-world heterogeneity. These unrealistic benchmarks obscure the true impact of unlearning and limit the applicability of current methods. We first conduct a comprehensive benchmark of existing FU methods under realistic data heterogeneity and fairness conditions. We then propose a novel, fairness-aware FU approach, Federated Cross-Client-Constrains Unlearning (FedCCCU), to explicitly address both challenges. FedCCCU offers a practical and scalable solution for real-world FU. Experimental results show that existing methods perform poorly in realistic settings, while our approach consistently outperforms them.
- Abstract(参考訳): 機械学習は「忘れられる権利」のようなデータ削除の権利を強制するために重要である。
分散パラダイムとして、フェデレートラーニング(FL)も未学習を必要とするが、現実的な実装は2つの大きな課題に直面している。
第一に、フェデレート・アンラーニング(FU)の公平さは見過ごされがちである。
特定の未学習のメソッドは、通常、すべてのクライアントにコストのかかる再トレーニングを強制します。
近似的アプローチは、勾配上昇または蒸留を用いて、データのみを保持するクライアントのパフォーマンスを不当に劣化させるような粗い介入を行う。
第二に、ほとんどのFU評価は実世界の不均一性を無視する合成データ仮定(IID/non-IID)に依存している。
これらの非現実的なベンチマークは、アンラーニングの本当の影響を曖昧にし、現在のメソッドの適用性を制限する。
まず、実データの不均一性と公平性条件下で、既存のFU手法の包括的なベンチマークを行う。
次に,FedCCCU(Federated Cross-Client-Constrains Unlearning)という,公平性を意識した新しいFUアプローチを提案する。
FedCCCUは現実世界のFUに対して実用的でスケーラブルなソリューションを提供する。
実験の結果,既存の手法は現実的な設定では性能が良くないことがわかった。
関連論文リスト
- Federated Unlearning Made Practical: Seamless Integration via Negated Pseudo-Gradients [3.12131298354022]
フェデレート・アンラーニング(PUF)における負の擬似勾配更新を利用した新しい手法を提案する。
このアプローチでは,通常のFLラウンドで使用される標準的なクライアントモデル更新のみを使用し,それらを擬似次数として解釈する。
最先端のメカニズムとは異なり、PUFはFLとシームレスに統合され、標準のFLラウンドを超える計算と通信のオーバーヘッドを発生させることなく、同時に非学習要求をサポートする。
論文 参考訳(メタデータ) (2025-04-08T09:05:33Z) - Accurate Forgetting for Heterogeneous Federated Continual Learning [89.08735771893608]
提案手法は,フェデレーションネットワークにおける従来の知識を選択的に活用する新しい生成再生手法である。
我々は,従来の知識の信頼性を定量化するために,正規化フローモデルに基づく確率的フレームワークを用いる。
論文 参考訳(メタデータ) (2025-02-20T02:35:17Z) - Towards Effective Evaluations and Comparisons for LLM Unlearning Methods [97.2995389188179]
本稿では,大規模言語モデルにおける機械学習評価の精度向上を図る。
評価指標の堅牢性と、競合する目標間のトレードオフという、2つの重要な課題に対処します。
論文 参考訳(メタデータ) (2024-06-13T14:41:00Z) - Fair Machine Unlearning: Data Removal while Mitigating Disparities [5.724350004671127]
忘れられる権利は、EUのジェネラル・レギュレーション(ジェネラル・レギュレーション)によって概説される基本原則である。
残ったデータに再トレーニングすることで、ナイーティブに「期待」を達成できる。
学習」は、フェアネスのような現実世界のアプリケーションにとって重要な他の特性に影響を及ぼす。
論文 参考訳(メタデータ) (2023-07-27T10:26:46Z) - Combating Exacerbated Heterogeneity for Robust Models in Federated
Learning [91.88122934924435]
対人訓練と連合学習の組み合わせは、望ましくない頑丈さの劣化につながる可能性がある。
我々は、Slack Federated Adversarial Training (SFAT)と呼ばれる新しいフレームワークを提案する。
各種ベンチマークおよび実世界のデータセットに対するSFATの合理性と有効性を検証する。
論文 参考訳(メタデータ) (2023-03-01T06:16:15Z) - Preventing Discriminatory Decision-making in Evolving Data Streams [8.952662914331901]
機械学習のバイアスは、ここ10年で明らかに注目を集めている。
意思決定システムのバイアスに対処する最も公正な機械学習(fair-ML)は、オフライン設定のみに焦点を当てている。
オンラインシステムが現実世界で広く普及しているにもかかわらず、オンライン設定におけるバイアスを特定し修正する作業は極めて不十分である。
論文 参考訳(メタデータ) (2023-02-16T01:20:08Z) - SIFU: Sequential Informed Federated Unlearning for Efficient and Provable Client Unlearning in Federated Optimization [23.064896326146386]
Machine Unlearning(MU)は、トレーニング手順から与えられたデータポイントのコントリビューションを削除することを目的としている。
フェデレーテッド・アンラーニング(FU)手法が提案されている一方で,新しい手法としてSIFU(Sequential Informed Unlearning)を提案する。
論文 参考訳(メタデータ) (2022-11-21T17:15:46Z) - Cluster-level pseudo-labelling for source-free cross-domain facial
expression recognition [94.56304526014875]
表情認識のためのSFUDA法を提案する。
本手法は,自己教師付き事前学習を利用して,対象データから優れた特徴表現を学習する。
提案手法の有効性を4つの適応方式で検証し,FERに適用した場合,既存のSFUDA法より一貫して優れていることを示す。
論文 参考訳(メタデータ) (2022-10-11T08:24:50Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z) - Deep F-measure Maximization for End-to-End Speech Understanding [52.36496114728355]
本稿では,F測度に対する微分可能な近似法を提案し,標準バックプロパゲーションを用いてネットワークをトレーニングする。
我々は、アダルト、コミュニティ、犯罪の2つの標準フェアネスデータセットの実験を行い、ATISデータセットの音声・インテリジェンス検出と音声・COCOデータセットの音声・イメージ概念分類を行った。
これらの4つのタスクのすべてにおいて、F測定は、クロスエントロピー損失関数で訓練されたモデルと比較して、最大8%の絶対的な絶対的な改善を含む、マイクロF1スコアの改善をもたらす。
論文 参考訳(メタデータ) (2020-08-08T03:02:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。