論文の概要: FedSGT: Exact Federated Unlearning via Sequential Group-based Training
- arxiv url: http://arxiv.org/abs/2511.23393v1
- Date: Fri, 28 Nov 2025 17:36:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-01 19:47:56.006049
- Title: FedSGT: Exact Federated Unlearning via Sequential Group-based Training
- Title(参考訳): FedSGT: シークエンシャルグループベースのトレーニングによるフェデレーション・アンラーニングの実践
- Authors: Bokang Zhang, Hong Guan, Hong kyu Lee, Ruixuan Liu, Jia Zou, Li Xiong,
- Abstract要約: Federated Sequential Group-based Training (FedSGT) は、Federated Learning (FL) のための正確なアンラーニングフレームワークである。
FedSGTはデータを一様グループに分割し、各クライアントは複数のグループに参加することができる。
さまざまなタスクの実験では、FedSGTが複数のアンラーニング要求の下で、はるかに長いサービスメンテナンスを実現することが示されている。
- 参考スコア(独自算出の注目度): 8.391721120887414
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Federated Learning (FL) enables collaborative, privacy-preserving model training, but supporting the "Right to be Forgotten" is especially challenging because data influences the model through distributed and interleaved client updates. Existing exact unlearning methods typically require frequent retraining from scratch, resulting in high communication cost and long service downtime. To address this, we propose Federated Sequential Group-based Training (FedSGT), an exact unlearning framework for FL. FedSGT partitions the data into uniform groups, and each client may participate in multiple groups. To control communication overhead, each client can limit the number of groups it contributes to. FedSGT then trains multiple sequences of Parameter-Efficient Fine-Tuning (PEFT) modules, each corresponding to a different group permutation. Since the PEFT modules are lightweight and maintained server-side, FedSGT isolates the influence of different data groups into independent modules without incurring significant storage overhead and communication cost. Exact unlearning is thus achieved instantly by deactivating the modules corresponding to the group containing the unlearned data. Furthermore, using multiple training sequences helps maintain high model utility as deletion requests accumulate. We provide a rigorous theoretical analysis of both the deletion rate -- expected number of deletions before retraining is needed -- and the expected model performance. Experiments on various tasks demonstrate that FedSGT achieves a significantly longer service maintenance under multiple unlearning requests while maintaining comparable learning performance and training efficiency to other exact unlearning baselines. Extensive ablation studies validate the robustness of our method across a wide range of parameter settings.
- Abstract(参考訳): フェデレートラーニング(FL)は、協調的なプライバシ保護モデルトレーニングを可能にするが、"Right to be Forgotten"のサポートは、データが分散およびインターリーブされたクライアント更新を通じてモデルに影響を与えるため、特に難しい。
既存の未学習の手法では、スクラッチから頻繁に再トレーニングする必要があるため、通信コストが高く、サービスのダウンタイムが長くなる。
これを解決するために、FLのための正確なアンラーニングフレームワークであるFederated Sequential Group-based Training (FedSGT)を提案する。
FedSGTはデータを一様グループに分割し、各クライアントは複数のグループに参加することができる。
通信オーバーヘッドを制御するために、各クライアントは、貢献するグループ数を制限できる。
FedSGTはその後、パラメータ効率の良い細調整(PEFT)モジュールの複数のシーケンスを訓練し、それぞれが異なるグループ置換に対応する。
PEFTモジュールは軽量でサーバ側で維持されているため、FedSGTは異なるデータグループの影響を独立したモジュールに分離する。
これにより、未学習データを含むグループに対応するモジュールを非活性化することにより、即時未学習を実現する。
さらに、複数のトレーニングシーケンスを使用することで、削除要求が蓄積されるにつれて、高いモデルユーティリティを維持することができる。
我々は, 削除率, 再訓練前における削除数, および予測モデル性能について, 厳密な理論的解析を行った。
さまざまなタスクの実験では、FedSGTが複数の未学習要求下でのサービスメンテナンスをはるかに長く達成し、学習性能とトレーニング効率を他の正確な未学習ベースラインと同等に維持していることが示されている。
広範囲なパラメータ設定における我々の手法の堅牢性を検証する。
関連論文リスト
- FedEL: Federated Elastic Learning for Heterogeneous Devices [14.499606660793239]
フェデレートラーニング(FL)は、データプライバシを維持しながら、分散デバイスが機械学習モデルを協調的にトレーニングすることを可能にする。
クライアントの選択、非同期FL、部分的なトレーニングといった既存のソリューションは、これらの課題に部分的に対処するが、精度の低下、古い更新、一貫性のないトレーニングコントリビューションによるモデルパフォーマンスの妥協といった問題に直面する。
モデル精度を維持しながらトレーニング効率を向上させるための,連合型弾性学習フレームワークであるFedELを提案する。
論文 参考訳(メタデータ) (2025-09-21T03:25:46Z) - An Adaptive Clustering Scheme for Client Selections in Communication-Efficient Federated Learning [3.683202928838613]
フェデレートラーニング(Federated Learning)は、新たな分散型ラーニングアーキテクチャである。
本稿では,クラスタ数を動的に調整し,最も理想的なグループ化結果を求めることを提案する。
トレーニングに参加するユーザ数を削減し、モデル性能に影響を与えることなく、通信コストを削減できる。
論文 参考訳(メタデータ) (2025-04-11T08:43:12Z) - Federated Continual Instruction Tuning [39.344583304181135]
フェデレートラーニング(FL)は、すべての分散データとトレーニングリソースを活用して、共同トレーニングのオーバーヘッドを軽減する可能性がある。
本稿では,この実世界の課題をモデル化するために,FCIT(Federated Continual Instruction Tuning)ベンチマークを導入する。
論文 参考訳(メタデータ) (2025-03-17T07:58:06Z) - Hierarchical Balance Packing: Towards Efficient Supervised Fine-tuning for Long-Context LLM [49.2709992932292]
長期コンテキスト大規模言語モデル(LLM)のトレーニングは、長期コンテキストと短コンテキストデータによるハイブリッドトレーニングが、ワークロードの不均衡につながることが多いため、難しい。
既存の作業では、主にデータパッキングを使用してこの問題を軽減するが、不均衡な注意計算や通信オーバーヘッドの無駄を考慮できない。
本稿では,これらの非効率性に対処する新しいバッチ構築法とトレーニングレシピを設計する階層的バランスパッキング(HBP)を提案する。
論文 参考訳(メタデータ) (2025-03-10T10:52:50Z) - CLIPErase: Efficient Unlearning of Visual-Textual Associations in CLIP [57.49519639951552]
CLIPEraseは視覚的・テキスト的関連を選択的に忘れる新しいアプローチである。
CIFAR-100とFlickr30Kデータセットの実験は、CLIPEraseがマルチモーダルサンプルのゼロショットタスクにおける指定された関連性を効果的に忘れていることを示している。
論文 参考訳(メタデータ) (2024-10-30T17:51:31Z) - Scalable Federated Unlearning via Isolated and Coded Sharding [76.12847512410767]
フェデレートされたアンラーニングは、クライアントレベルのデータエフェクトを削除するための有望なパラダイムとして登場した。
本稿では,分散シャーディングと符号化コンピューティングに基づく,スケーラブルなフェデレーション・アンラーニング・フレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-29T08:41:45Z) - SemiSFL: Split Federated Learning on Unlabeled and Non-IID Data [34.49090830845118]
フェデレートラーニング(FL)は、複数のクライアントがネットワークエッジでプライベートデータ上で機械学習モデルを協調的にトレーニングできるようにするためのものだ。
クラスタリング正規化を取り入れて,ラベルなしおよび非IIDクライアントデータでSFLを実行する,Semi-supervised SFLシステムを提案する。
本システムは,訓練時間の3.8倍の高速化を実現し,目標精度を達成しつつ通信コストを約70.3%削減し,非IIDシナリオで最大5.8%の精度向上を実現する。
論文 参考訳(メタデータ) (2023-07-29T02:35:37Z) - FedGradNorm: Personalized Federated Gradient-Normalized Multi-Task
Learning [50.756991828015316]
マルチタスク学習(MTL)は、1つの共有ネットワークで複数のタスクを同時に学習する新しいフレームワークである。
本稿では,異なるタスク間の学習速度のバランスをとるために,動的重み付け法を用いてノルムの正規化を行うFedGradNormを提案する。
論文 参考訳(メタデータ) (2022-03-24T17:43:12Z) - Towards Efficient Post-training Quantization of Pre-trained Language
Models [85.68317334241287]
PLMのポストトレーニング量子化(PTQ)について検討し,モジュール単位の量子化誤差最小化(MREM)を提案する。
GLUEとSQuADベンチマークの実験により、提案したPTQソリューションはQATに近く動作するだけでなく、トレーニング時間、メモリオーバーヘッド、データ消費を大幅に削減できることがわかった。
論文 参考訳(メタデータ) (2021-09-30T12:50:06Z) - Separate but Together: Unsupervised Federated Learning for Speech
Enhancement from Non-IID Data [27.51123821674191]
音声強調と分離のための非教師付きフェデレーション学習(FL)アプローチであるFEDENHANCEを提案する。
我々は、各クライアントが限られた数の話者からのノイズの多い録音へのアクセスしかできない現実のシナリオをシミュレートする。
実験の結果,本手法は単一デバイス上での iid トレーニングと比較して,競合強化性能が向上することが示された。
論文 参考訳(メタデータ) (2021-05-11T00:47:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。