論文の概要: $f$-FUM: Federated Unlearning via min--max and $f$-divergence
- arxiv url: http://arxiv.org/abs/2602.06187v1
- Date: Thu, 05 Feb 2026 20:50:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-09 22:18:26.107505
- Title: $f$-FUM: Federated Unlearning via min--max and $f$-divergence
- Title(参考訳): $f$-FUM: min--maxと$f$-divergenceによるフェデレーションアンラーニング
- Authors: Radmehr Karimian, Amirhossein Bagheri, Meghdad Kurmanji, Nicholas D. Lane, Gholamali Aminian,
- Abstract要約: min-max最適化問題として定式化された新しい非学習フレームワークを提案する。
本研究では,本手法が実用性に最小限の影響を伴って,ナイーブリトレーニングよりも大幅な高速化を実現することを示す。
- 参考スコア(独自算出の注目度): 14.929179934474497
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated Learning (FL) has emerged as a powerful paradigm for collaborative machine learning across decentralized data sources, preserving privacy by keeping data local. However, increasing legal and ethical demands, such as the "right to be forgotten", and the need to mitigate data poisoning attacks have underscored the urgent necessity for principled data unlearning in FL. Unlike centralized settings, the distributed nature of FL complicates the removal of individual data contributions. In this paper, we propose a novel federated unlearning framework formulated as a min-max optimization problem, where the objective is to maximize an $f$-divergence between the model trained with all data and the model retrained without specific data points, while minimizing the degradation on retained data. Our framework could act like a plugin and be added to almost any federated setup, unlike SOTA methods like (\cite{10269017} which requires model degradation in server, or \cite{khalil2025notfederatedunlearningweight} which requires to involve model architecture and model weights). This formulation allows for efficient approximation of data removal effects in a federated setting. We provide empirical evaluations to show that our method achieves significant speedups over naive retraining, with minimal impact on utility.
- Abstract(参考訳): フェデレートラーニング(FL)は、分散データソースをまたいだコラボレーティブ機械学習の強力なパラダイムとして登場し、データをローカルに保つことによってプライバシを保存する。
しかし、「忘れられる権利」のような法的・倫理的要求の増大や、データ中毒攻撃を緩和する必要性は、FLにおける原則的データ学習の必要を過度に強調している。
集中型設定とは異なり、FLの分散性質は個々のデータコントリビューションの削除を複雑にする。
本稿では、min-max最適化問題として定式化された新しい非学習フレームワークを提案する。このフレームワークの目的は、保持データの劣化を最小限に抑えつつ、すべてのデータで訓練されたモデルと特定のデータポイントなしで再学習されたモデルとの差分を最大化することである。
私たちのフレームワークはプラグインのように振る舞うことができ、ほとんどすべてのフェデレートされたセットアップに追加することができます(サーバのモデル劣化を必要とする\cite{10269017} や、モデルアーキテクチャとモデルウェイトを必要とする \cite{khalil2025notfederatedunlearningweight} のようなSOTAメソッドと異なり)。
この定式化は、フェデレートされた環境でのデータ除去効果の効率的な近似を可能にする。
本研究では,本手法が実効性に与える影響を最小限に抑えながら,本手法がナイーブリトレーニングよりも大幅に高速化できることを実証評価する。
関連論文リスト
- Tackling Federated Unlearning as a Parameter Estimation Problem [2.9085589574462816]
本研究は,情報理論に基づく効果的なフェデレート・アンラーニング・フレームワークを提案する。
本手法では, 忘れられているデータに最も敏感なパラメータのみを識別し, 選択的にリセットするために, 2次ヘッセン情報を用いる。
論文 参考訳(メタデータ) (2025-08-26T14:24:45Z) - One-shot Federated Learning via Synthetic Distiller-Distillate Communication [63.89557765137003]
One-shot Federated Learning (FL)は、単一のコミュニケーションで機械学習モデルの協調トレーニングを促進する強力な技術である。
我々はこれらの課題に対処するために,新しい,実用的なワンショットFLフレームワークであるFedSD2Cを提案する。
論文 参考訳(メタデータ) (2024-12-06T17:05:34Z) - FedQUIT: On-Device Federated Unlearning via a Quasi-Competent Virtual Teacher [8.592348476398149]
フェデレートラーニング(FL)システムは、個々のデータの集中的な収集を必要とせずに、機械学習モデルの協調的なトレーニングを可能にする。
本稿では,FedQUITを提案する。FedQUITは知識蒸留を用いて,FLグローバルモデルからデータへの寄与を隠蔽する新しいアルゴリズムである。
論文 参考訳(メタデータ) (2024-08-14T14:36:28Z) - FedHPL: Efficient Heterogeneous Federated Learning with Prompt Tuning and Logit Distillation [32.305134875959226]
フェデレートラーニング(FL)は、分散クライアントが中央サーバーでモデルを協調訓練できるプライバシー保護パラダイムである。
我々はパラメータ効率の高い$textbfFed$erated Learning framework for $textbfH$eterogeneous settingsを提案する。
我々のフレームワークは最先端のFLアプローチより優れており、オーバーヘッドもトレーニングラウンドも少なくなっている。
論文 参考訳(メタデータ) (2024-05-27T15:25:32Z) - FedDM: Iterative Distribution Matching for Communication-Efficient
Federated Learning [87.08902493524556]
フェデレートラーニング(FL)は近年、学術や産業から注目を集めている。
我々は,複数の局所的代理関数からグローバルなトレーニング目標を構築するためのFedDMを提案する。
そこで本研究では,各クライアントにデータ集合を構築し,元のデータから得られた損失景観を局所的にマッチングする。
論文 参考訳(メタデータ) (2022-07-20T04:55:18Z) - FedHiSyn: A Hierarchical Synchronous Federated Learning Framework for
Resource and Data Heterogeneity [56.82825745165945]
フェデレートラーニング(FL)は、データプライバシを保護するために複数のデバイスに格納された分散生データを共有することなく、グローバルモデルのトレーニングを可能にする。
本稿では,階層型同期FLフレームワークであるFedHiSynを提案し,トラグラー効果や時代遅れモデルの問題に対処する。
提案手法は,MNIST,EMNIST,CIFAR10,CIFAR100のデータセットと多種多様なデバイス設定に基づいて評価する。
論文 参考訳(メタデータ) (2022-06-21T17:23:06Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z) - Toward Understanding the Influence of Individual Clients in Federated
Learning [52.07734799278535]
フェデレーションラーニングにより、クライアントはプライベートデータを中央サーバーに送信することなく、グローバルモデルを共同でトレーニングできます。
em-Influenceという新しい概念を定義し、パラメータに対するこの影響を定量化し、このメトリクスを推定する効果的な効率的なモデルを提案しました。
論文 参考訳(メタデータ) (2020-12-20T14:34:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。