論文の概要: The Right to be Forgotten in Federated Learning: An Efficient
Realization with Rapid Retraining
- arxiv url: http://arxiv.org/abs/2203.07320v1
- Date: Mon, 14 Mar 2022 17:22:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-15 17:10:50.802522
- Title: The Right to be Forgotten in Federated Learning: An Efficient
Realization with Rapid Retraining
- Title(参考訳): 連合学習における忘れられる権利:迅速な再訓練による効率的な実現
- Authors: Yi Liu, Lei Xu, Xingliang Yuan, Cong Wang, Bo Li
- Abstract要約: 訓練されたFLモデルからデータサンプルを完全に消去する高速再学習手法を提案する。
我々の形式的収束と複雑性解析は、我々の設計がモデルユーティリティを高い効率で維持できることを示した。
- 参考スコア(独自算出の注目度): 22.16510303054159
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In Machine Learning, the emergence of \textit{the right to be forgotten} gave
birth to a paradigm named \textit{machine unlearning}, which enables data
holders to proactively erase their data from a trained model. Existing machine
unlearning techniques focus on centralized training, where access to all
holders' training data is a must for the server to conduct the unlearning
process. It remains largely underexplored about how to achieve unlearning when
full access to all training data becomes unavailable. One noteworthy example is
Federated Learning (FL), where each participating data holder trains locally,
without sharing their training data to the central server. In this paper, we
investigate the problem of machine unlearning in FL systems. We start with a
formal definition of the unlearning problem in FL and propose a rapid
retraining approach to fully erase data samples from a trained FL model. The
resulting design allows data holders to jointly conduct the unlearning process
efficiently while keeping their training data locally. Our formal convergence
and complexity analysis demonstrate that our design can preserve model utility
with high efficiency. Extensive evaluations on four real-world datasets
illustrate the effectiveness and performance of our proposed realization.
- Abstract(参考訳): 機械学習において、‘textit{the right to be forget}’の出現は、訓練されたモデルからデータを積極的に消去する、‘textit{machine unlearning}’というパラダイムを生んだ。
既存のマシンアンラーニング技術は集中型トレーニングにフォーカスしており、すべてのホルダのトレーニングデータへのアクセスは、サーバがアンラーニングプロセスを実行する必要がある。
すべてのトレーニングデータへのフルアクセスが利用不能になった場合、未学習を達成する方法については、いまだに過小評価されている。
注目すべき例はフェデレーション学習(fl)で、各参加者のデータホルダは、トレーニングデータを中央サーバに共有することなく、ローカルにトレーニングを行う。
本稿では,flシステムにおける機械学習の問題点について検討する。
FLにおける未学習問題の形式的定義から始まり、訓練されたFLモデルからデータサンプルを完全に消去する高速再学習手法を提案する。
その結果、データホルダは、トレーニングデータをローカルに保持しながら、アンラーニングプロセスを効率的に行うことができる。
形式的収束と複雑性分析により,我々の設計が高効率でモデルユーティリティを保存できることを実証した。
4つの実世界のデータセットに関する広範な評価は、提案手法の有効性と性能を示している。
関連論文リスト
- ConDa: Fast Federated Unlearning with Contribution Dampening [46.074452659791575]
ConDaは、各クライアントのグローバルモデルに影響を与えるパラメータを追跡することによって、効率的なアンラーニングを実行するフレームワークである。
複数のデータセットで実験を行い、ConDaがクライアントのデータを忘れるのが効果的であることを実証する。
論文 参考訳(メタデータ) (2024-10-05T12:45:35Z) - Update Selective Parameters: Federated Machine Unlearning Based on Model Explanation [46.86767774669831]
モデル説明の概念に基づく、より効率的で効率的なフェデレーション・アンラーニング・スキームを提案する。
我々は、未学習のデータに対して、すでに訓練済みのモデルの中で最も影響力のあるチャネルを選択します。
論文 参考訳(メタデータ) (2024-06-18T11:43:20Z) - Blockchain-enabled Trustworthy Federated Unlearning [50.01101423318312]
フェデレートアンラーニング(Federated Unlearning)は、分散クライアントのデータオーナシップを保護するための、有望なパラダイムである。
既存の作業では、分散クライアントからの履歴モデルパラメータを保持するために、中央サーバが必要である。
本稿では,ブロックチェーンによる信頼性の高いフェデレーションアンラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-29T07:04:48Z) - Fast Machine Unlearning Without Retraining Through Selective Synaptic
Dampening [51.34904967046097]
Selective Synaptic Dampening (SSD)は高速で、訓練データの長期保存を必要としない。
高速で性能が高く,トレーニングデータの長期保存を必要としない,新しい2段階のポストホック,リトレーニングフリーなマシンアンラーニング手法を提案する。
論文 参考訳(メタデータ) (2023-08-15T11:30:45Z) - Fair Machine Unlearning: Data Removal while Mitigating Disparities [5.724350004671127]
忘れられる権利は、EUのジェネラル・レギュレーション(ジェネラル・レギュレーション)によって概説される基本原則である。
残ったデータに再トレーニングすることで、ナイーティブに「期待」を達成できる。
学習」は、フェアネスのような現実世界のアプリケーションにとって重要な他の特性に影響を及ぼす。
論文 参考訳(メタデータ) (2023-07-27T10:26:46Z) - Federated Unlearning: How to Efficiently Erase a Client in FL? [9.346673106489742]
訓練されたグローバルモデルからローカルデータ全体の影響を除去し,クライアントを消去する手法を提案する。
当社のアンラーニング手法は,スクラッチからフェデレート・リトレーニングを行うためのゴールド・スタンダード・アンラーニング手法と同等の性能を達成している。
以前の作業とは異なり、我々のアンラーニングメソッドは、トレーニングに使用されるデータへのグローバルアクセスも、サーバまたはクライアントによって格納されるパラメータ更新履歴も必要としません。
論文 参考訳(メタデータ) (2022-07-12T13:24:23Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - Federated Unlearning with Knowledge Distillation [9.666514931140707]
フェデレートラーニング(FL)は、トレーニングプロセス中に各クライアントのデータプライバシを保護するように設計されている。
忘れられる権利に関する最近の法律では、FLモデルが各クライアントから学んだことを忘れる能力を持つことが不可欠である。
モデルから蓄積した履歴更新を減じることで,クライアントの貢献を解消する,新たなフェデレーション付きアンラーニング手法を提案する。
論文 参考訳(メタデータ) (2022-01-24T03:56:20Z) - Decentralized Federated Learning Preserves Model and Data Privacy [77.454688257702]
我々は、訓練されたモデル間で知識を共有することができる、完全に分散化されたアプローチを提案する。
生徒は、合成された入力データを通じて教師の出力を訓練する。
その結果,教師が学習した未学習学生モデルが,教師と同等のF1スコアに達することがわかった。
論文 参考訳(メタデータ) (2021-02-01T14:38:54Z) - A Principled Approach to Data Valuation for Federated Learning [73.19984041333599]
フェデレートラーニング(FL)は、分散データソース上で機械学習(ML)モデルをトレーニングする一般的なテクニックである。
Shapley value (SV) はデータ値の概念として多くのデシラタを満たすユニークなペイオフスキームを定義する。
本稿では,FL に対応する SV の変種を提案する。
論文 参考訳(メタデータ) (2020-09-14T04:37:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。