論文の概要: A Survey on Federated Unlearning: Challenges, Methods, and Future Directions
- arxiv url: http://arxiv.org/abs/2310.20448v2
- Date: Mon, 29 Jan 2024 14:49:27 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-18 23:41:48.549205
- Title: A Survey on Federated Unlearning: Challenges, Methods, and Future Directions
- Title(参考訳): フェデレーション・アンラーニングに関する調査 : 課題,方法,今後の方向性
- Authors: Ziyao Liu, Yu Jiang, Jiyuan Shen, Minyi Peng, Kwok-Yan Lam, Xingliang Yuan, Xiaoning Liu,
- Abstract要約: 近年、忘れられる権利(RTBF)の概念は、データプライバシ規制の基本的な要素へと発展してきた。
マシン・アンラーニング(MU)の概念は注目されている。
FUは、フェデレートされた学習設定の領域におけるデータ消去の課題に直面している。
- 参考スコア(独自算出の注目度): 21.90319100485268
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, the notion of "the right to be forgotten" (RTBF) has evolved into a fundamental element of data privacy regulations, affording individuals the ability to request the removal of their personal data from digital records. Consequently, given the extensive adoption of data-intensive machine learning (ML) algorithms and increasing concerns for personal data privacy protection, the concept of machine unlearning (MU) has gained considerable attention. MU empowers an ML model to selectively eliminate sensitive or personally identifiable information it acquired during the training process. Evolving from the foundational principles of MU, federated unlearning (FU) has emerged to confront the challenge of data erasure within the domain of federated learning (FL) settings. This empowers the FL model to unlearn an FL client or identifiable information pertaining to the client while preserving the integrity of the decentralized learning process. Nevertheless, unlike traditional MU, the distinctive attributes of federated learning introduce specific challenges for FU techniques. These challenges lead to the need for tailored design when designing FU algorithms. Therefore, this comprehensive survey delves into the techniques, methodologies, and recent advancements in federated unlearning. It provides an overview of fundamental concepts and principles, evaluates existing federated unlearning algorithms, reviews optimizations tailored to federated learning, engages in discussions regarding practical applications, along with an assessment of their limitations, and outlines promising directions for future research.
- Abstract(参考訳): 近年、忘れられる権利(RTBF)の概念はデータプライバシ規制の基本的な要素へと発展し、個人がデジタルレコードから個人データの削除を要求できるようになっている。
その結果、データ集約型機械学習(ML)アルゴリズムが広く採用され、個人データプライバシ保護に対する懸念が高まり、機械学習(MU)の概念が注目されている。
MUはMLモデルに、トレーニングプロセス中に取得した機密または個人識別可能な情報を選択的に排除する権限を与える。
MUの基本原理から発展し、フェデレーションド・アンラーニング(FU)は、フェデレーションド・ラーニング(FL)設定領域におけるデータ消去の課題に直面している。
これにより、FLモデルは、分散学習プロセスの完全性を維持しながら、FLクライアントまたはクライアントに関連する識別可能な情報を解放することができる。
しかし、従来のMUとは異なり、連合学習の特徴はFU技術に固有の課題をもたらす。
これらの課題は、FUアルゴリズムを設計する際、調整された設計の必要性に繋がる。
したがって、この総合的な調査は、フェデレーション・アンラーニングの技法、方法論、そして最近の進歩を掘り下げるものである。
基本的な概念と原則の概要、既存のフェデレートされた未学習アルゴリズムの評価、フェデレーションされた学習に適した最適化のレビュー、実践的応用に関する議論、それらの制限の評価、将来の研究に向けた有望な方向性の概要を提供する。
関連論文リスト
- Federated Unlearning: A Survey on Methods, Design Guidelines, and Evaluation Metrics [2.7456900944642686]
フェデレートアンラーニング(FU)アルゴリズムは、完全なモデルの再トレーニングなしに、クライアントのコントリビューションを効率的に除去する。
本稿では、背景概念、実証的証拠、効率的なFUスキームの設計・実装に関する実践的ガイドラインを提供する。
論文 参考訳(メタデータ) (2024-01-10T13:26:19Z) - A Comprehensive Study on Model Initialization Techniques Ensuring
Efficient Federated Learning [0.0]
フェデレートラーニング(FL)は、分散とプライバシ保護の方法で機械学習モデルをトレーニングするための有望なパラダイムとして登場した。
モデルに使用される手法の選択は、フェデレーション学習システムの性能、収束速度、通信効率、プライバシー保証において重要な役割を果たす。
本研究は,各手法のメリットとデメリットを慎重に比較,分類,記述し,さまざまなFLシナリオに適用性について検討する。
論文 参考訳(メタデータ) (2023-10-31T23:26:58Z) - A Survey of Federated Unlearning: A Taxonomy, Challenges and Future
Directions [71.16718184611673]
プライバシ保護のためのフェデレートラーニング(FL)の進化により、忘れられる権利を実装する必要性が高まっている。
選択的な忘れ方の実装は、その分散した性質のため、FLでは特に困難である。
Federated Unlearning(FU)は、データプライバシの必要性の増加に対応する戦略的ソリューションとして登場した。
論文 参考訳(メタデータ) (2023-10-30T01:34:33Z) - Deep Equilibrium Models Meet Federated Learning [71.57324258813675]
本研究では,従来の深層学習ネットワークの代わりにDeep Equilibrium(DEQ)モデルを用いて,フェデレートラーニング(FL)問題について検討する。
我々は、DECモデルをフェデレート学習フレームワークに組み込むことで、FLのいくつかのオープンな問題に自然に対処できると主張している。
我々の知る限りでは、この研究は、DECモデルとフェデレーションラーニングの関連性を確立する最初のものである。
論文 参考訳(メタデータ) (2023-05-29T22:51:40Z) - A Survey of Trustworthy Federated Learning with Perspectives on
Security, Robustness, and Privacy [47.89042524852868]
Federated Learning (FL) は,さまざまな現実のシナリオに対して,有望なソリューションとして注目されている。
しかし、データの分離とプライバシーに関する課題は、FLシステムの信頼性を脅かす。
論文 参考訳(メタデータ) (2023-02-21T12:52:12Z) - Federated Learning and Meta Learning: Approaches, Applications, and
Directions [94.68423258028285]
本稿では,FL,メタラーニング,フェデレーションメタラーニング(FedMeta)について概観する。
他のチュートリアルと異なり、私たちの目標はFL、メタラーニング、FedMetaの方法論をどのように設計、最適化、進化させ、無線ネットワーク上で応用するかを探ることです。
論文 参考訳(メタデータ) (2022-10-24T10:59:29Z) - VeriFi: Towards Verifiable Federated Unlearning [59.169431326438676]
フェデレートラーニング(FL)は、参加者がプライベートデータを共有せずに強力なモデルを共同でトレーニングする、協調学習パラダイムである。
参加者を去るには、グローバルモデルからプライベートデータを削除するよう要求する権利がある。
フェデレートされた未学習と検証を統合した統合フレームワークであるVeriFiを提案する。
論文 参考訳(メタデータ) (2022-05-25T12:20:02Z) - Federated Learning: Balancing the Thin Line Between Data Intelligence
and Privacy [0.0]
フェデレートされた学習は、断片化された機密データから学ぶ上で大きな可能性を秘めている。
本稿では,フェデレートラーニングの系統的概要と詳細な分類について述べる。
フェデレートラーニングにおける既存のセキュリティ課題について検討し、データ中毒、推論攻撃、モデル中毒攻撃のための確立した防御技術の概要について述べる。
論文 参考訳(メタデータ) (2022-04-22T23:39:16Z) - RoFL: Attestable Robustness for Secure Federated Learning [59.63865074749391]
フェデレートラーニング(Federated Learning)により、多数のクライアントが、プライベートデータを共有することなく、ジョイントモデルをトレーニングできる。
クライアントのアップデートの機密性を保証するため、フェデレートラーニングシステムはセキュアなアグリゲーションを採用している。
悪意のあるクライアントに対する堅牢性を向上させるセキュアなフェデレート学習システムであるRoFLを提案する。
論文 参考訳(メタデータ) (2021-07-07T15:42:49Z) - Federated Edge Learning : Design Issues and Challenges [1.916348196696894]
Federated Learning(FL)は分散機械学習技術であり、各デバイスはそのローカルトレーニングデータに基づいて勾配を独立に計算することで学習モデルに寄与する。
FLをネットワークエッジに実装することは、システムとデータの不均一性とリソースの制約のために難しい。
本稿では、今後の研究方向性の指針として、データ認識スケジューリングのための一般的なフレームワークを提案する。
論文 参考訳(メタデータ) (2020-08-31T19:56:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。