論文の概要: Federated Unlearning: How to Efficiently Erase a Client in FL?
- arxiv url: http://arxiv.org/abs/2207.05521v3
- Date: Fri, 20 Oct 2023 19:57:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-25 15:08:08.113847
- Title: Federated Unlearning: How to Efficiently Erase a Client in FL?
- Title(参考訳): Federated Unlearning: FLでクライアントを効率的に根絶する方法
- Authors: Anisa Halimi, Swanand Kadhe, Ambrish Rawat and Nathalie Baracaldo
- Abstract要約: 訓練されたグローバルモデルからローカルデータ全体の影響を除去し,クライアントを消去する手法を提案する。
当社のアンラーニング手法は,スクラッチからフェデレート・リトレーニングを行うためのゴールド・スタンダード・アンラーニング手法と同等の性能を達成している。
以前の作業とは異なり、我々のアンラーニングメソッドは、トレーニングに使用されるデータへのグローバルアクセスも、サーバまたはクライアントによって格納されるパラメータ更新履歴も必要としません。
- 参考スコア(独自算出の注目度): 9.346673106489742
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With privacy legislation empowering the users with the right to be forgotten,
it has become essential to make a model amenable for forgetting some of its
training data. However, existing unlearning methods in the machine learning
context can not be directly applied in the context of distributed settings like
federated learning due to the differences in learning protocol and the presence
of multiple actors. In this paper, we tackle the problem of federated
unlearning for the case of erasing a client by removing the influence of their
entire local data from the trained global model. To erase a client, we propose
to first perform local unlearning at the client to be erased, and then use the
locally unlearned model as the initialization to run very few rounds of
federated learning between the server and the remaining clients to obtain the
unlearned global model. We empirically evaluate our unlearning method by
employing multiple performance measures on three datasets, and demonstrate that
our unlearning method achieves comparable performance as the gold standard
unlearning method of federated retraining from scratch, while being
significantly efficient. Unlike prior works, our unlearning method neither
requires global access to the data used for training nor the history of the
parameter updates to be stored by the server or any of the clients.
- Abstract(参考訳): ユーザーに対して忘れられる権利を付与するプライバシー法により、トレーニングデータのいくつかを忘れるためのモデルの実現が不可欠になっている。
しかし、学習プロトコルの違いや複数のアクターの存在のため、機械学習コンテキストにおける既存の未学習方法は、フェデレーション学習のような分散設定の文脈では直接適用できない。
本稿では,地域データ全体の影響をトレーニングされたグローバルモデルから取り除き,クライアントを消去する場合のフェデレーション・アンラーニングの問題に取り組む。
クライアントを消去するために、まず、クライアントでローカルアンラーニングを行い、その後、ローカルアンラーニングされたモデルを初期化として使用し、サーバと残りのクライアントの間で非常に少数の連携学習を実行し、未学習のグローバルモデルを得る。
我々は,3つのデータセットに対して複数のパフォーマンス指標を用いて,学習方法の実証評価を行い,学習方法が,スクラッチからフェデレートされた再学習のゴールドスタンダードと同等の性能を達成できることを示した。
以前の作業とは異なり、我々のアンラーニングメソッドは、トレーニングに使用されるデータへのグローバルアクセスも、サーバまたはクライアントによって格納されるパラメータ更新履歴も必要としません。
関連論文リスト
- Update Selective Parameters: Federated Machine Unlearning Based on Model Explanation [46.86767774669831]
モデル説明の概念に基づく、より効率的で効率的なフェデレーション・アンラーニング・スキームを提案する。
我々は、未学習のデータに対して、すでに訓練済みのモデルの中で最も影響力のあるチャネルを選択します。
論文 参考訳(メタデータ) (2024-06-18T11:43:20Z) - Blockchain-enabled Trustworthy Federated Unlearning [50.01101423318312]
フェデレートアンラーニング(Federated Unlearning)は、分散クライアントのデータオーナシップを保護するための、有望なパラダイムである。
既存の作業では、分散クライアントからの履歴モデルパラメータを保持するために、中央サーバが必要である。
本稿では,ブロックチェーンによる信頼性の高いフェデレーションアンラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-29T07:04:48Z) - Federated Unlearning via Active Forgetting [24.060724751342047]
インクリメンタルラーニングに基づく新しいフェデレーション・アンラーニング・フレームワークを提案する。
我々のフレームワークは、近似的再学習やデータ影響推定に依存する既存の非学習手法とは異なる。
論文 参考訳(メタデータ) (2023-07-07T03:07:26Z) - Don't Memorize; Mimic The Past: Federated Class Incremental Learning
Without Episodic Memory [36.4406505365313]
本稿では,過去のデータの一部を格納するのではなく,生成モデルを用いて過去の分布からサンプルを合成する,連邦化クラスインクリメンタルラーニングのためのフレームワークを提案する。
生成モデルは、クライアントからデータを要求することなく、各タスクの最後にデータフリーのメソッドを使用してサーバ上でトレーニングされる。
論文 参考訳(メタデータ) (2023-07-02T07:06:45Z) - Better Generative Replay for Continual Federated Learning [20.57194599280318]
フェデレートラーニング(Federated Learning)とは、分散クライアントからコミュニケーションを通じて学習する集中型サーバを実現する技術である。
本稿では,クライアントが新たなタスクを段階的に学習し,履歴データを格納できない連続的フェデレーション学習の問題を紹介する。
我々は,モデル統合と整合性強化という,シンプルだが効果的な2つの解を用いたFedCILモデルを提案する。
論文 参考訳(メタデータ) (2023-02-25T06:26:56Z) - Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z) - Federated Unlearning with Knowledge Distillation [9.666514931140707]
フェデレートラーニング(FL)は、トレーニングプロセス中に各クライアントのデータプライバシを保護するように設計されている。
忘れられる権利に関する最近の法律では、FLモデルが各クライアントから学んだことを忘れる能力を持つことが不可欠である。
モデルから蓄積した履歴更新を減じることで,クライアントの貢献を解消する,新たなフェデレーション付きアンラーニング手法を提案する。
論文 参考訳(メタデータ) (2022-01-24T03:56:20Z) - FedKD: Communication Efficient Federated Learning via Knowledge
Distillation [56.886414139084216]
フェデレーション学習は、分散データからインテリジェントモデルを学ぶために広く使用されている。
フェデレートラーニングでは、クライアントはモデルラーニングの各イテレーションでローカルモデルの更新を伝える必要がある。
本稿では,知識蒸留に基づくコミュニケーション効率のよいフェデレーション学習手法を提案する。
論文 参考訳(メタデータ) (2021-08-30T15:39:54Z) - Machine Unlearning of Features and Labels [72.81914952849334]
機械学習モデルにおけるアンラーニングとラベルのファーストシナリオを提案する。
提案手法は,影響関数の概念に基づいて,モデルパラメータのクローズドフォーム更新によるアンラーニングを実現する。
論文 参考訳(メタデータ) (2021-08-26T04:42:24Z) - Toward Understanding the Influence of Individual Clients in Federated
Learning [52.07734799278535]
フェデレーションラーニングにより、クライアントはプライベートデータを中央サーバーに送信することなく、グローバルモデルを共同でトレーニングできます。
em-Influenceという新しい概念を定義し、パラメータに対するこの影響を定量化し、このメトリクスを推定する効果的な効率的なモデルを提案しました。
論文 参考訳(メタデータ) (2020-12-20T14:34:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。