論文の概要: A Survey of Federated Unlearning: A Taxonomy, Challenges and Future
Directions
- arxiv url: http://arxiv.org/abs/2310.19218v3
- Date: Tue, 6 Feb 2024 05:33:51 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-07 19:48:02.734937
- Title: A Survey of Federated Unlearning: A Taxonomy, Challenges and Future
Directions
- Title(参考訳): フェデレーテッド・アンラーニングに関する調査研究 : 分類学,課題,今後の方向性
- Authors: Yang Zhao, Jiaxi Yang, Yiling Tao, Lixu Wang, Xiaoxiao Li, Dusit
Niyato
- Abstract要約: プライバシ保護のためのフェデレートラーニング(FL)の進化により、忘れられる権利を実装する必要性が高まっている。
選択的な忘れ方の実装は、その分散した性質のため、FLでは特に困難である。
Federated Unlearning(FU)は、データプライバシの必要性の増加に対応する戦略的ソリューションとして登場した。
- 参考スコア(独自算出の注目度): 71.16718184611673
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The evolution of privacy-preserving Federated Learning (FL) has led to an
increasing demand for implementing the right to be forgotten. The
implementation of selective forgetting is particularly challenging in FL due to
its decentralized nature. This complexity has given rise to a new field,
Federated Unlearning (FU). FU emerges as a strategic solution to address the
increasing need for data privacy, including the implementation of the `right to
be forgotten'. The primary challenge in developing FU approaches lies in
balancing the trade-offs in privacy, security, utility, and efficiency, as
these elements often have competing requirements. Achieving an optimal
equilibrium among these facets is crucial for maintaining the effectiveness and
usability of FL systems while adhering to privacy and security standards. This
survey provides a comprehensive analysis of existing FU methods, incorporating
a detailed review of the various evaluation metrics. Furthermore, we unify
these diverse methods and metrics into an experimental framework. Additionally,
the survey discusses potential future research directions in FU. Finally, a
continually updated repository of related open-source materials is available
at: https://github.com/abbottyanginchina/Awesome-Federated-Unlearning.
- Abstract(参考訳): プライバシー保護型連合学習(fl)の進化は、忘れられる権利の実施に対する需要の増加につながった。
選択的な忘れ方の実装は、その分散性のため、flでは特に困難である。
この複雑さは、新しい分野であるFederated Unlearning(FU)を生み出した。
fuは,‘忘れられる権利’の実装を含む,データプライバシの必要性の増加に対処するための,戦略的ソリューションとして浮上する。
FUアプローチの開発における最大の課題は、プライバシ、セキュリティ、ユーティリティ、効率性のトレードオフにある。
これらのファセット間の最適な均衡を達成することは、プライバシーとセキュリティの標準に固執しながら、flシステムの有効性とユーザビリティを維持するために不可欠である。
本調査では, 既存のFU法を包括的に分析し, 各種評価指標の詳細な検討を取り入れた。
さらに、これらの多様な方法とメトリクスを実験的なフレームワークに統合する。
さらに, FUの今後の研究方向性についても検討した。
最後に、関連するオープンソース資料の継続的に更新されたリポジトリが、https://github.com/abbottyanginchina/awesome-federated-unlearningで入手できる。
関連論文リスト
- Advances in APPFL: A Comprehensive and Extensible Federated Learning Framework [1.4206132527980742]
Federated Learning(FL)は、データプライバシを保持しながら協調的なモデルトレーニングを可能にする分散機械学習パラダイムである。
本稿では,統合学習のためのフレームワークおよびベンチマークスイートであるAPPFLの開発における最近の進歩について述べる。
本稿では, 通信効率, プライバシー保護, 計算性能, 資源利用など, FLの様々な側面を評価する広範な実験を通じて, APPFLの能力を実証する。
論文 参考訳(メタデータ) (2024-09-17T22:20:26Z) - Vertical Federated Learning for Effectiveness, Security, Applicability: A Survey [67.48187503803847]
Vertical Federated Learning(VFL)は、プライバシ保護のための分散学習パラダイムである。
近年の研究では、VFLの様々な課題に対処する有望な成果が示されている。
この調査は、最近の展開を体系的に概観する。
論文 参考訳(メタデータ) (2024-05-25T16:05:06Z) - Advances and Open Challenges in Federated Foundation Models [34.37509703688661]
ファウンデーションモデル(FM)とフェデレートラーニング(FL)の統合は、人工知能(AI)における変革的パラダイムを提示する
本稿では,フェデレーション・ファンデーション・モデル(FedFM)の新興分野に関する包括的調査を行う。
論文 参考訳(メタデータ) (2024-04-23T09:44:58Z) - Federated Learning with New Knowledge: Fundamentals, Advances, and
Futures [69.8830772538421]
本稿では,フェデレートラーニング(FL)における新しい知識の源泉を体系的に定義する。
本研究は,新たな知識の到来時期と形態が定式化過程に及ぼす影響について検討する。
シナリオの設定,効率,セキュリティなど,さまざまな要因を考慮し,FLの今後の方向性を新たな知識で論じる。
論文 参考訳(メタデータ) (2024-02-03T21:29:31Z) - Federated Unlearning: A Survey on Methods, Design Guidelines, and Evaluation Metrics [2.7456900944642686]
フェデレートアンラーニング(FU)アルゴリズムは、完全なモデルの再トレーニングなしに、クライアントのコントリビューションを効率的に除去する。
本稿では、背景概念、実証的証拠、効率的なFUスキームの設計・実装に関する実践的ガイドラインを提供する。
論文 参考訳(メタデータ) (2024-01-10T13:26:19Z) - A Survey on Federated Unlearning: Challenges, Methods, and Future Directions [21.90319100485268]
近年、忘れられる権利(RTBF)の概念は、デジタル信頼とAI安全のためのデータプライバシの重要な側面となっている。
マシン・アンラーニング(MU)は、MLモデルによって識別可能な情報を選択的に排除できる、かなりの注目を集めている。
FUは、フェデレートされた学習環境におけるデータ消去の課題に直面している。
論文 参考訳(メタデータ) (2023-10-31T13:32:00Z) - A Survey of Trustworthy Federated Learning with Perspectives on
Security, Robustness, and Privacy [47.89042524852868]
Federated Learning (FL) は,さまざまな現実のシナリオに対して,有望なソリューションとして注目されている。
しかし、データの分離とプライバシーに関する課題は、FLシステムの信頼性を脅かす。
論文 参考訳(メタデータ) (2023-02-21T12:52:12Z) - Towards Federated Long-Tailed Learning [76.50892783088702]
データプライバシとクラス不均衡は、多くの機械学習タスクの例外ではなく、標準である。
最近の試みでは、広範にわたるプライベートデータから学習する問題に対処する一方で、長い尾を持つデータから学ぶことが試みられている。
本稿では,プライバシ保護フェデレーション学習(FL)フレームワークのコンテキスト下での長期的データ分散(LT)学習に焦点を当てた。
論文 参考訳(メタデータ) (2022-06-30T02:34:22Z) - Privacy and Robustness in Federated Learning: Attacks and Defenses [74.62641494122988]
このトピックに関する最初の包括的な調査を実施します。
FLの概念の簡潔な紹介と、1脅威モデル、2堅牢性に対する中毒攻撃と防御、3プライバシーに対する推論攻撃と防御、というユニークな分類学を通じて、私たちはこの重要なトピックのアクセス可能なレビューを提供します。
論文 参考訳(メタデータ) (2020-12-07T12:11:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。