論文の概要: Federated Unlearning Made Practical: Seamless Integration via Negated Pseudo-Gradients
- arxiv url: http://arxiv.org/abs/2504.05822v1
- Date: Tue, 08 Apr 2025 09:05:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-09 13:29:09.002372
- Title: Federated Unlearning Made Practical: Seamless Integration via Negated Pseudo-Gradients
- Title(参考訳): フェデレーション・アンラーニングの実践 - 負の擬似勾配によるシームレスな統合
- Authors: Alessio Mora, Carlo Mazzocca, Rebecca Montanari, Paolo Bellavista,
- Abstract要約: フェデレート・アンラーニング(PUF)における負の擬似勾配更新を利用した新しい手法を提案する。
このアプローチでは,通常のFLラウンドで使用される標準的なクライアントモデル更新のみを使用し,それらを擬似次数として解釈する。
最先端のメカニズムとは異なり、PUFはFLとシームレスに統合され、標準のFLラウンドを超える計算と通信のオーバーヘッドを発生させることなく、同時に非学習要求をサポートする。
- 参考スコア(独自算出の注目度): 3.12131298354022
- License:
- Abstract: The right to be forgotten is a fundamental principle of privacy-preserving regulations and extends to Machine Learning (ML) paradigms such as Federated Learning (FL). While FL enhances privacy by enabling collaborative model training without sharing private data, trained models still retain the influence of training data. Federated Unlearning (FU) methods recently proposed often rely on impractical assumptions for real-world FL deployments, such as storing client update histories or requiring access to a publicly available dataset. To address these constraints, this paper introduces a novel method that leverages negated Pseudo-gradients Updates for Federated Unlearning (PUF). Our approach only uses standard client model updates, anyway employed during regular FL rounds, and interprets them as pseudo-gradients. When a client needs to be forgotten, we apply the negated of their pseudo-gradients, appropriately scaled, to the global model. Unlike state-of-the-art mechanisms, PUF seamlessly integrates with FL workflows, incurs no additional computational and communication overhead beyond standard FL rounds, and supports concurrent unlearning requests. We extensively evaluated the proposed method on two well-known benchmark image classification datasets (CIFAR-10 and CIFAR-100) and a real-world medical imaging dataset for segmentation (ProstateMRI), using three different neural architectures: two residual networks and a vision transformer. The experimental results across various settings demonstrate that PUF achieves state-of-the-art forgetting effectiveness and recovery time, without relying on any additional assumptions, thus underscoring its practical applicability.
- Abstract(参考訳): 忘れられる権利は、プライバシ保護規則の基本原則であり、フェデレートラーニング(FL)のような機械学習(ML)パラダイムにまで拡張されている。
FLはプライベートデータを共有せずにコラボレーティブモデルトレーニングを可能にすることでプライバシを向上させるが、トレーニングされたモデルはトレーニングデータの影響を引き続き保持する。
最近提案されたFederated Unlearning(FU)メソッドは、クライアントの更新履歴の保存や公開データセットへのアクセスの要求など、現実のFLデプロイメントの非現実的な仮定に依存することが多い。
これらの制約に対処するために,フェデレート・アンラーニング(PUF)のための負の擬似勾配更新(Pseudo-gradients Updates for Federated Unlearning)を利用する新しい手法を提案する。
このアプローチでは,通常のFLラウンドで使用される標準的なクライアントモデル更新のみを使用し,それらを擬似次数として解釈する。
クライアントを忘れる必要がある場合、その擬似階調の無効化をグローバルモデルに適用する。
最先端のメカニズムとは異なり、PUFはFLワークフローとシームレスに統合し、標準のFLラウンド以上の計算と通信のオーバーヘッドを発生させることなく、同時に非学習要求をサポートする。
提案手法は,2つの残差ネットワークとビジョントランスフォーマーを用いて,よく知られた2つのベンチマーク画像分類データセット(CIFAR-10とCIFAR-100)と,セグメンテーションのための実世界の医療画像データセット(ProstateMRI)を用いて広範に評価した。
実験結果は,PUFが追加の仮定に頼らずに,最先端の忘れる有効性と回復時間を達成できることを示し,実用性を裏付けるものである。
関連論文リスト
- FedQUIT: On-Device Federated Unlearning via a Quasi-Competent Virtual Teacher [4.291269657919828]
フェデレートラーニング(FL)システムは、個々のデータの集中的な収集を必要とせずに、機械学習モデルの協調的なトレーニングを可能にする。
本稿では,FedQUITを提案する。FedQUITは知識蒸留を用いて,FLグローバルモデルからデータへの寄与を隠蔽する新しいアルゴリズムである。
論文 参考訳(メタデータ) (2024-08-14T14:36:28Z) - Multi-level Personalized Federated Learning on Heterogeneous and Long-Tailed Data [10.64629029156029]
マルチレベル・パーソナライズド・フェデレーション・ラーニング(MuPFL)という革新的パーソナライズド・パーソナライズド・ラーニング・フレームワークを導入する。
MuPFLは3つの重要なモジュールを統合している: Biased Activation Value Dropout (BAVD), Adaptive Cluster-based Model Update (ACMU), Prior Knowledge-assisted Fine-tuning (PKCF)。
様々な実世界のデータセットの実験では、MuPFLは極端に非i.d.と長い尾の条件下であっても、最先端のベースラインを一貫して上回っている。
論文 参考訳(メタデータ) (2024-05-10T11:52:53Z) - An Aggregation-Free Federated Learning for Tackling Data Heterogeneity [50.44021981013037]
フェデレートラーニング(FL)は、分散データセットからの知識を活用する効果に頼っている。
従来のFLメソッドでは、クライアントが前回のトレーニングラウンドからサーバが集約したグローバルモデルに基づいてローカルモデルを更新するアグリゲート-then-adaptフレームワークを採用している。
我々は,新しいアグリゲーションフリーFLアルゴリズムであるFedAFを紹介する。
論文 参考訳(メタデータ) (2024-04-29T05:55:23Z) - A Survey on Efficient Federated Learning Methods for Foundation Model Training [62.473245910234304]
フェデレーテッド・ラーニング(FL)は、多数のクライアントにわたるプライバシー保護協調トレーニングを促進するための確立した技術となっている。
Foundation Models (FM)の後、多くのディープラーニングアプリケーションでは現実が異なる。
FLアプリケーションに対するパラメータ効率細調整(PEFT)の利点と欠点について論じる。
論文 参考訳(メタデータ) (2024-01-09T10:22:23Z) - Federated Learning with Projected Trajectory Regularization [65.6266768678291]
フェデレーション学習は、ローカルデータを共有せずに、分散クライアントから機械学習モデルの共同トレーニングを可能にする。
連合学習における重要な課題の1つは、クライアントにまたがる識別できない分散データを扱うことである。
本稿では,データ問題に対処するための予測軌道正則化(FedPTR)を備えた新しいフェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-22T02:12:08Z) - Tunable Soft Prompts are Messengers in Federated Learning [55.924749085481544]
フェデレートラーニング(FL)は、複数の参加者が分散データソースを使用して機械学習モデルを協調的にトレーニングすることを可能にする。
FLにおけるモデルプライバシ保護の欠如は無視できない課題となっている。
そこで本研究では,ソフトプロンプトによって参加者間の情報交換を実現する新しいFLトレーニング手法を提案する。
論文 参考訳(メタデータ) (2023-11-12T11:01:10Z) - Tackling Intertwined Data and Device Heterogeneities in Federated Learning with Unlimited Staleness [4.9851737525099225]
フェデレートラーニングは、クライアントの異なるローカルデータ分散と、モデルの更新をアップロードする際のレイテンシに起因する、データとデバイスの不均一性によって影響を受ける可能性がある。
本稿では,この変換の精度と計算効率を保証する新しいFLフレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-24T03:19:40Z) - Feature Correlation-guided Knowledge Transfer for Federated
Self-supervised Learning [19.505644178449046]
特徴相関に基づくアグリゲーション(FedFoA)を用いたフェデレーション型自己教師型学習法を提案する。
私たちの洞察は、機能相関を利用して、特徴マッピングを整列し、ローカルトレーニングプロセス中にクライアント間でローカルモデルの更新を校正することにあります。
我々はFedFoAがモデルに依存しないトレーニングフレームワークであることを証明する。
論文 参考訳(メタデータ) (2022-11-14T13:59:50Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - Federated Unlearning [24.60965999954735]
Federated Learning(FL)は、有望な分散機械学習(ML)パラダイムとして登場した。
忘れられる権利」とデータ中毒攻撃に対抗するための実用的なニーズは、訓練されたFLモデルから特定のトレーニングデータを削除または解読できる効率的な技術を必要とします。
FedEraser は、フェデレーション クライアントのデータがグローバル FL モデルに与える影響を排除することができる最初のフェデレーション未学習方法論です。
論文 参考訳(メタデータ) (2020-12-27T08:54:37Z) - Toward Understanding the Influence of Individual Clients in Federated
Learning [52.07734799278535]
フェデレーションラーニングにより、クライアントはプライベートデータを中央サーバーに送信することなく、グローバルモデルを共同でトレーニングできます。
em-Influenceという新しい概念を定義し、パラメータに対するこの影響を定量化し、このメトリクスを推定する効果的な効率的なモデルを提案しました。
論文 参考訳(メタデータ) (2020-12-20T14:34:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。