論文の概要: Computation and Communication Efficient Federated Unlearning via On-server Gradient Conflict Mitigation and Expression
- arxiv url: http://arxiv.org/abs/2603.13795v1
- Date: Sat, 14 Mar 2026 07:02:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 16:19:35.413213
- Title: Computation and Communication Efficient Federated Unlearning via On-server Gradient Conflict Mitigation and Expression
- Title(参考訳): サーバ上のグラディエント・コンフリクトの緩和と表現によるフェデレート・アンラーニングの計算とコミュニケーション
- Authors: Minh-Duong Nguyen, Senura Hansaja, Le-Tuan Nguyen, Quoc-Viet Pham, Ken-Tye Yong, Nguyen H. Tran, Dung D. Le,
- Abstract要約: フェデレート・アンラーニング(FUL)は、訓練されたフェデレート・ラーニングモデルから特定の参加者のデータコントリビューションを取り除くことを目的としている。
2つの重要な段階からなる新しいフレームワークであるFederated On-server Unlearning (FOUL)を提案する。
FOULは、通信コストと計算コストを低く抑えながら、目標までの時間を大幅に削減し、競争力や優れた結果を達成する。
- 参考スコア(独自算出の注目度): 6.698713844139252
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated Unlearning (FUL) aims to remove specific participants' data contributions from a trained Federated Learning model, thereby ensuring data privacy and compliance with regulatory requirements. Despite its potential, progress in FUL has been limited due to several challenges, including the cross-client knowledge inaccessibility and high computational and communication costs. To overcome these challenges, we propose Federated On-server Unlearning (FOUL), a novel framework that comprises two key stages. The learning-to-unlearn stage serves as a preparatory learning phase, during which the model identifies and encodes the key features associated with the forget clients. This stage is communication-efficient and establishes the basis for the subsequent unlearning process. Subsequently, on-server knowledge aggregation phase aims to perform the unlearning process at the server without requiring access to client data, thereby preserving both efficiency and privacy. We introduce a new data setting for FUL, which enables a more transparent and rigorous evaluation of unlearning. To highlight the effectiveness of our approach, we propose a novel evaluation metric termed time-to-forget, which measures how quickly the model achieves optimal unlearning performance. Extensive experiments conducted on three datasets under various unlearning scenarios demonstrate that FOUL outperforms the Retraining in FUL. Moreover, FOUL achieves competitive or superior results with significantly reduced time-to-forget, while maintaining low communication and computation costs.
- Abstract(参考訳): フェデレート・アンラーニング(FUL)は、トレーニングされたフェデレート・ラーニングモデルから特定の参加者のデータコントリビューションを取り除き、データプライバシと規制要件の遵守を保証することを目的としている。
その可能性にもかかわらず、FULの進歩は、クロスクライアントな知識のアクセシビリティや高い計算と通信コストなど、いくつかの課題のために制限されてきた。
これらの課題を克服するために、我々は2つの重要なステージからなる新しいフレームワークであるFederated On-server Unlearning (FOUL)を提案する。
学習から学習までの段階は予備的な学習フェーズとして機能し、モデルが忘れたクライアントに関連する重要な特徴を特定し、エンコードする。
この段階はコミュニケーション効率が高く、その後の未学習プロセスの基礎を確立する。
その後、サーバ上の知識集約フェーズは、クライアントデータへのアクセスを必要とせずに、サーバで未学習のプロセスを実行することを目的としており、それによって効率とプライバシの両方を保ちます。
我々は、より透明で厳密なアンラーニング評価を可能にするFULの新しいデータ設定を導入する。
提案手法の有効性を明らかにするために,モデルが最適な未学習性能をいかに早く達成するかを測る新たな評価指標であるtime-to-forgetを提案する。
さまざまなアンラーニングシナリオの下で3つのデータセットで実施された大規模な実験は、FOULがFULのリトレーニングよりも優れていることを示した。
さらに、FOULは、通信コストと計算コストを低く抑えながら、目標までの時間を大幅に削減し、競争力や優れた結果を達成する。
関連論文リスト
- Query-based Knowledge Transfer for Heterogeneous Learning Environments [50.45210784447839]
クエリベースの知識伝達(QKT)という新しいフレームワークを提案する。
QKTは、データ交換なしで特定のクライアントのニーズを満たすための、適切な知識獲得を可能にする。
実験の結果,QKTは既存の協調学習方法よりも優れていた。
論文 参考訳(メタデータ) (2025-04-12T13:09:39Z) - Learn while Unlearn: An Iterative Unlearning Framework for Generative Language Models [52.40798352740857]
3つのコアコンポーネントで構成されるICU(Iterative Contrastive Unlearning)フレームワークを紹介する。
知識未学習誘導モジュールは、未学習の損失を使用して、特定の知識を除去するためにターゲットとする。
Contrastive Learning Enhancementモジュールは、純粋な未学習の目標に対してモデルの表現力を保持する。
イテレーティブ・アンラーニング・リファインメントモジュールは、進行中の評価と更新を通じて、アンラーニングプロセスを動的に調整する。
論文 参考訳(メタデータ) (2024-07-25T07:09:35Z) - Lightweight Unsupervised Federated Learning with Pretrained Vision Language Model [32.094290282897894]
フェデレートラーニングは、物理的に孤立したクライアントから、ユーザのデータのプライバシを保護しながら、集合モデルをトレーニングすることを目的としている。
本稿では,各クライアントのラベルのないデータを活用して,軽量なモデルトレーニングとコミュニケーションを行う,軽量な非教師付きフェデレーション学習手法を提案する。
提案手法は,CLIPのゼロショット予測と比較してモデル性能を大幅に向上させるとともに,教師付きフェデレーション学習ベンチマーク手法よりも優れる。
論文 参考訳(メタデータ) (2024-04-17T03:42:48Z) - Federated Unlearning for Human Activity Recognition [11.287645073129108]
本稿では,クライアントのトレーニングデータの一部を選択的に除去することで,FL HARモデルを洗練するための軽量マシンアンラーニング手法を提案する。
本手法は,テキストリトレーニング手法に匹敵する非学習精度を実現し,数十~数千の高速化を実現する。
論文 参考訳(メタデータ) (2024-01-17T15:51:36Z) - FedLALR: Client-Specific Adaptive Learning Rates Achieve Linear Speedup
for Non-IID Data [54.81695390763957]
フェデレートラーニング(Federated Learning)は、分散機械学習の手法である。
我々は,AMSGradの異種局所変種であるFedLALRを提案し,各クライアントが学習率を調整する。
クライアントが指定した自動調整型学習率スケジューリングが,クライアント数に対して収束し,線形高速化を実現することを示す。
論文 参考訳(メタデータ) (2023-09-18T12:35:05Z) - SemiSFL: Split Federated Learning on Unlabeled and Non-IID Data [34.49090830845118]
フェデレートラーニング(FL)は、複数のクライアントがネットワークエッジでプライベートデータ上で機械学習モデルを協調的にトレーニングできるようにするためのものだ。
クラスタリング正規化を取り入れて,ラベルなしおよび非IIDクライアントデータでSFLを実行する,Semi-supervised SFLシステムを提案する。
本システムは,訓練時間の3.8倍の高速化を実現し,目標精度を達成しつつ通信コストを約70.3%削減し,非IIDシナリオで最大5.8%の精度向上を実現する。
論文 参考訳(メタデータ) (2023-07-29T02:35:37Z) - Federated Pruning: Improving Neural Network Efficiency with Federated
Learning [24.36174705715827]
フェデレーテッド・プルーニング(Federated Pruning)は、フェデレーテッド・セッティングの下で縮小モデルのトレーニングを行う。
異なる刈り取り方式を探索し,提案手法の有効性の実証的証拠を提供する。
論文 参考訳(メタデータ) (2022-09-14T00:48:37Z) - CosSGD: Nonlinear Quantization for Communication-efficient Federated
Learning [62.65937719264881]
フェデレーション学習は、これらのクライアントのローカルデータを中央サーバに転送することなく、クライアント間での学習を促進する。
圧縮勾配降下のための非線形量子化を提案し、フェデレーションラーニングで容易に利用することができる。
本システムは,訓練過程の収束と精度を維持しつつ,通信コストを最大3桁まで削減する。
論文 参考訳(メタデータ) (2020-12-15T12:20:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。