論文の概要: VeriFi: Towards Verifiable Federated Unlearning
- arxiv url: http://arxiv.org/abs/2205.12709v1
- Date: Wed, 25 May 2022 12:20:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-26 21:24:14.431899
- Title: VeriFi: Towards Verifiable Federated Unlearning
- Title(参考訳): VeriFi: 検証可能な未学習を目指して
- Authors: Xiangshan Gao, Xingjun Ma, Jingyi Wang, Youcheng Sun, Bo Li, Shouling
Ji, Peng Cheng, Jiming Chen
- Abstract要約: フェデレートラーニング(FL)は、参加者がプライベートデータを共有せずに強力なモデルを共同でトレーニングする、協調学習パラダイムである。
参加者を去るには、グローバルモデルからプライベートデータを削除するよう要求する権利がある。
フェデレートされた未学習と検証を統合した統合フレームワークであるVeriFiを提案する。
- 参考スコア(独自算出の注目度): 59.169431326438676
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning (FL) is a collaborative learning paradigm where
participants jointly train a powerful model without sharing their private data.
One desirable property for FL is the implementation of the right to be
forgotten (RTBF), i.e., a leaving participant has the right to request to
delete its private data from the global model. However, unlearning itself may
not be enough to implement RTBF unless the unlearning effect can be
independently verified, an important aspect that has been overlooked in the
current literature. In this paper, we prompt the concept of verifiable
federated unlearning, and propose VeriFi, a unified framework integrating
federated unlearning and verification that allows systematic analysis of the
unlearning and quantification of its effect, with different combinations of
multiple unlearning and verification methods. In VeriFi, the leaving
participant is granted the right to verify (RTV), that is, the participant
notifies the server before leaving, then actively verifies the unlearning
effect in the next few communication rounds. The unlearning is done at the
server side immediately after receiving the leaving notification, while the
verification is done locally by the leaving participant via two steps: marking
(injecting carefully-designed markers to fingerprint the leaver) and checking
(examining the change of the global model's performance on the markers). Based
on VeriFi, we conduct the first systematic and large-scale study for verifiable
federated unlearning, considering 7 unlearning methods and 5 verification
methods. Particularly, we propose a more efficient and FL-friendly unlearning
method, and two more effective and robust non-invasive-verification methods. We
extensively evaluate VeriFi on 7 datasets and 4 types of deep learning models.
Our analysis establishes important empirical understandings for more
trustworthy federated unlearning.
- Abstract(参考訳): フェデレートラーニング(FL)は、参加者がプライベートデータを共有せずに強力なモデルを共同でトレーニングする、協調学習パラダイムである。
flの望ましい特性の1つは、忘れられる権利(rtbf)の実装である。つまり、離脱した参加者は、グローバルモデルからプライベートデータを削除するように要求する権利を有する。
しかし、未学習効果が独立に検証されない限り、未学習自体はrtbfを実装するには不十分であり、現在の文献では見過ごされている重要な側面である。
本稿では,検証可能なフェデレート・アンラーニングの概念を提唱し,複数のアンラーニングと検証手法の組み合わせにより,その効果の体系的解析と定量化を可能にするフェデレーション・アンラーニングと検証を統合する統一フレームワークであるverifiを提案する。
VeriFiでは、離脱した参加者は(RTV)検証する権利を与えられる。つまり、離脱前にサーバに通知し、次に数回の通信ラウンドで未学習効果を積極的に検証する。
未学習は、出発通知を受け取った直後のサーバ側で行われ、終了者による検証は、マーキング(注意して設計されたマーカーをフィンガープリンティングする)とチェック(マーカーにおけるグローバルモデルのパフォーマンスの変化を例示する)の2つのステップによってローカルに行われる。
本研究では,7つの学習方法と5つの検証方法を考慮して,検証可能なフェデレート・アンラーニングのための最初の体系的かつ大規模研究を行う。
特に,より効率的でflフレンドリーなアンラーニング手法と,より効果的で堅牢な2つの非侵襲的検証手法を提案する。
VeriFiを7つのデータセットと4種類のディープラーニングモデルで広範囲に評価する。
我々の分析は、より信頼できる連邦学習のための重要な経験的理解を確立する。
関連論文リスト
- SoK: Challenges and Opportunities in Federated Unlearning [32.0365189539138]
本論文は、この新興分野における研究動向と課題を特定することを目的として、未学習の未学習文学を深く研究することを目的としている。
論文 参考訳(メタデータ) (2024-03-04T19:35:08Z) - Blockchain-enabled Trustworthy Federated Unlearning [50.01101423318312]
フェデレートアンラーニング(Federated Unlearning)は、分散クライアントのデータオーナシップを保護するための、有望なパラダイムである。
既存の作業では、分散クライアントからの履歴モデルパラメータを保持するために、中央サーバが必要である。
本稿では,ブロックチェーンによる信頼性の高いフェデレーションアンラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-29T07:04:48Z) - Federated Unlearning via Active Forgetting [24.060724751342047]
インクリメンタルラーニングに基づく新しいフェデレーション・アンラーニング・フレームワークを提案する。
我々のフレームワークは、近似的再学習やデータ影響推定に依存する既存の非学習手法とは異なる。
論文 参考訳(メタデータ) (2023-07-07T03:07:26Z) - When Do Curricula Work in Federated Learning? [56.88941905240137]
カリキュラム学習は非IID性を大幅に軽減する。
クライアント間でデータ配布を多様化すればするほど、学習の恩恵を受けるようになる。
本稿では,クライアントの現実的格差を生かした新しいクライアント選択手法を提案する。
論文 参考訳(メタデータ) (2022-12-24T11:02:35Z) - Federated Learning and Meta Learning: Approaches, Applications, and
Directions [94.68423258028285]
本稿では,FL,メタラーニング,フェデレーションメタラーニング(FedMeta)について概観する。
他のチュートリアルと異なり、私たちの目標はFL、メタラーニング、FedMetaの方法論をどのように設計、最適化、進化させ、無線ネットワーク上で応用するかを探ることです。
論文 参考訳(メタデータ) (2022-10-24T10:59:29Z) - Federated Unlearning: How to Efficiently Erase a Client in FL? [9.346673106489742]
訓練されたグローバルモデルからローカルデータ全体の影響を除去し,クライアントを消去する手法を提案する。
当社のアンラーニング手法は,スクラッチからフェデレート・リトレーニングを行うためのゴールド・スタンダード・アンラーニング手法と同等の性能を達成している。
以前の作業とは異なり、我々のアンラーニングメソッドは、トレーニングに使用されるデータへのグローバルアクセスも、サーバまたはクライアントによって格納されるパラメータ更新履歴も必要としません。
論文 参考訳(メタデータ) (2022-07-12T13:24:23Z) - Towards Verifiable Federated Learning [15.758657927386263]
Federated Learning(FL)は、強力なモデルを構築しながらユーザのプライバシを保存する、コラボレーション機械学習の新たなパラダイムである。
自己関心のある団体によるオープンな参加の性質から、FLは正当なFL参加者による潜在的な不適切な行動から守らなければならない。
検証可能なフェデレーション学習は、学界や業界からも大きな関心を集めている研究の新たな話題となっている。
論文 参考訳(メタデータ) (2022-02-15T09:52:25Z) - RoFL: Attestable Robustness for Secure Federated Learning [59.63865074749391]
フェデレートラーニング(Federated Learning)により、多数のクライアントが、プライベートデータを共有することなく、ジョイントモデルをトレーニングできる。
クライアントのアップデートの機密性を保証するため、フェデレートラーニングシステムはセキュアなアグリゲーションを採用している。
悪意のあるクライアントに対する堅牢性を向上させるセキュアなフェデレート学習システムであるRoFLを提案する。
論文 参考訳(メタデータ) (2021-07-07T15:42:49Z) - Constrained Differentially Private Federated Learning for Low-bandwidth
Devices [1.1470070927586016]
本稿では,新しいプライバシー保護型連合学習方式を提案する。
これは、差分プライバシーに基づく理論上のプライバシー保証を提供する。
上流と下流の帯域幅を標準のフェデレート学習と比較して最大99.9%削減する。
論文 参考訳(メタデータ) (2021-02-27T22:25:06Z) - WAFFLe: Weight Anonymized Factorization for Federated Learning [88.44939168851721]
データが機密性やプライベート性を持つドメインでは、ローカルデバイスを離れることなく、分散的に学習できるメソッドには大きな価値があります。
本稿では,フェデレートラーニングのためのウェイト匿名化因子化(WAFFLe)を提案する。これは,インド・バフェット・プロセスとニューラルネットワークの重み要因の共有辞書を組み合わせたアプローチである。
論文 参考訳(メタデータ) (2020-08-13T04:26:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。