論文の概要: A Survey of Federated Unlearning: A Taxonomy, Challenges and Future
Directions
- arxiv url: http://arxiv.org/abs/2310.19218v3
- Date: Tue, 6 Feb 2024 05:33:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-02-07 19:48:02.734937
- Title: A Survey of Federated Unlearning: A Taxonomy, Challenges and Future
Directions
- Title(参考訳): フェデレーテッド・アンラーニングに関する調査研究 : 分類学,課題,今後の方向性
- Authors: Yang Zhao, Jiaxi Yang, Yiling Tao, Lixu Wang, Xiaoxiao Li, Dusit
Niyato
- Abstract要約: プライバシ保護のためのフェデレートラーニング(FL)の進化により、忘れられる権利を実装する必要性が高まっている。
選択的な忘れ方の実装は、その分散した性質のため、FLでは特に困難である。
Federated Unlearning(FU)は、データプライバシの必要性の増加に対応する戦略的ソリューションとして登場した。
- 参考スコア(独自算出の注目度): 71.16718184611673
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The evolution of privacy-preserving Federated Learning (FL) has led to an
increasing demand for implementing the right to be forgotten. The
implementation of selective forgetting is particularly challenging in FL due to
its decentralized nature. This complexity has given rise to a new field,
Federated Unlearning (FU). FU emerges as a strategic solution to address the
increasing need for data privacy, including the implementation of the `right to
be forgotten'. The primary challenge in developing FU approaches lies in
balancing the trade-offs in privacy, security, utility, and efficiency, as
these elements often have competing requirements. Achieving an optimal
equilibrium among these facets is crucial for maintaining the effectiveness and
usability of FL systems while adhering to privacy and security standards. This
survey provides a comprehensive analysis of existing FU methods, incorporating
a detailed review of the various evaluation metrics. Furthermore, we unify
these diverse methods and metrics into an experimental framework. Additionally,
the survey discusses potential future research directions in FU. Finally, a
continually updated repository of related open-source materials is available
at: https://github.com/abbottyanginchina/Awesome-Federated-Unlearning.
- Abstract(参考訳): プライバシー保護型連合学習(fl)の進化は、忘れられる権利の実施に対する需要の増加につながった。
選択的な忘れ方の実装は、その分散性のため、flでは特に困難である。
この複雑さは、新しい分野であるFederated Unlearning(FU)を生み出した。
fuは,‘忘れられる権利’の実装を含む,データプライバシの必要性の増加に対処するための,戦略的ソリューションとして浮上する。
FUアプローチの開発における最大の課題は、プライバシ、セキュリティ、ユーティリティ、効率性のトレードオフにある。
これらのファセット間の最適な均衡を達成することは、プライバシーとセキュリティの標準に固執しながら、flシステムの有効性とユーザビリティを維持するために不可欠である。
本調査では, 既存のFU法を包括的に分析し, 各種評価指標の詳細な検討を取り入れた。
さらに、これらの多様な方法とメトリクスを実験的なフレームワークに統合する。
さらに, FUの今後の研究方向性についても検討した。
最後に、関連するオープンソース資料の継続的に更新されたリポジトリが、https://github.com/abbottyanginchina/awesome-federated-unlearningで入手できる。
関連論文リスト
- Benchmarking Federated Machine Unlearning methods for Tabular Data [9.30408906787193]
マシンアンラーニングにより、モデルは要求時に特定のデータを忘れることができる。
本稿では,フェデレートされた環境での機械学習手法のベンチマークに関する先駆的な研究について述べる。
機械学習、ランダムフォレスト、ロジスティック回帰モデルの両方を用いて、この機能とインスタンスレベルでのアンラーニングについて検討する。
論文 参考訳(メタデータ) (2025-04-01T15:53:36Z) - Ten Challenging Problems in Federated Foundation Models [55.343738234307544]
フェデレーション・ファンデーション・モデル(Federated Foundation Models、FedFM)は、フェデレーション・モデルの一般的な能力とフェデレーション・ラーニングのプライバシー保護能力を融合させる分散学習パラダイムである。
本稿では,FedFMに固有の10の課題について,基礎理論,プライベートデータの利用,継続学習,非学習,非IIDおよびグラフデータ,双方向知識伝達,インセンティブ機構設計,ゲーム機構設計,モデル透かし,効率を包括的に要約する。
論文 参考訳(メタデータ) (2025-02-14T04:01:15Z) - FEDLAD: Federated Evaluation of Deep Leakage Attacks and Defenses [50.921333548391345]
フェデレーテッド・ラーニング(Federated Learning)は、分散型機械学習パラダイムをプライバシ保護するものだ。
近年の研究では、Deep Leakageと呼ばれる勾配技術によって、民間の真実データを復元できることが判明している。
本稿では、Deep Leakage攻撃と防御を評価するための総合的なベンチマークであるFEDLAD Framework(Federated Evaluation of Deep Leakage Attacks and Defenses)を紹介する。
論文 参考訳(メタデータ) (2024-11-05T11:42:26Z) - Advances in APPFL: A Comprehensive and Extensible Federated Learning Framework [1.4206132527980742]
Federated Learning(FL)は、データプライバシを保持しながら協調的なモデルトレーニングを可能にする分散機械学習パラダイムである。
本稿では,統合学習のためのフレームワークおよびベンチマークスイートであるAPPFLの開発における最近の進歩について述べる。
本稿では, 通信効率, プライバシー保護, 計算性能, 資源利用など, FLの様々な側面を評価する広範な実験を通じて, APPFLの能力を実証する。
論文 参考訳(メタデータ) (2024-09-17T22:20:26Z) - Federated Learning driven Large Language Models for Swarm Intelligence: A Survey [2.769238399659845]
Federated Learning (FL)は、大規模言語モデル(LLM)をトレーニングするための魅力的なフレームワークを提供する
私たちは機械学習に重点を置いています。これは、忘れられる権利のようなプライバシー規則に従う上で重要な側面です。
摂動技術やモデル分解,漸進学習など,効果的なアンラーニングを可能にするさまざまな戦略を探求する。
論文 参考訳(メタデータ) (2024-06-14T08:40:58Z) - Towards Effective Evaluations and Comparisons for LLM Unlearning Methods [97.2995389188179]
本稿では,大規模言語モデルにおける機械学習評価の精度向上を図る。
評価指標の堅牢性と、競合する目標間のトレードオフという、2つの重要な課題に対処します。
論文 参考訳(メタデータ) (2024-06-13T14:41:00Z) - Vertical Federated Learning for Effectiveness, Security, Applicability: A Survey [67.48187503803847]
Vertical Federated Learning(VFL)は、プライバシ保護のための分散学習パラダイムである。
近年の研究では、VFLの様々な課題に対処する有望な成果が示されている。
この調査は、最近の展開を体系的に概観する。
論文 参考訳(メタデータ) (2024-05-25T16:05:06Z) - Advances and Open Challenges in Federated Foundation Models [34.37509703688661]
ファウンデーションモデル(FM)とフェデレートラーニング(FL)の統合は、人工知能(AI)における変革的パラダイムを提示する
本稿では,フェデレーション・ファンデーション・モデル(FedFM)の新興分野に関する包括的調査を行う。
論文 参考訳(メタデータ) (2024-04-23T09:44:58Z) - Federated Learning with New Knowledge: Fundamentals, Advances, and
Futures [69.8830772538421]
本稿では,フェデレートラーニング(FL)における新しい知識の源泉を体系的に定義する。
本研究は,新たな知識の到来時期と形態が定式化過程に及ぼす影響について検討する。
シナリオの設定,効率,セキュリティなど,さまざまな要因を考慮し,FLの今後の方向性を新たな知識で論じる。
論文 参考訳(メタデータ) (2024-02-03T21:29:31Z) - Federated Unlearning: A Survey on Methods, Design Guidelines, and Evaluation Metrics [2.7456900944642686]
フェデレートアンラーニング(FU)アルゴリズムは、完全なモデルの再トレーニングなしに、クライアントのコントリビューションを効率的に除去する。
本稿では、背景概念、実証的証拠、効率的なFUスキームの設計・実装に関する実践的ガイドラインを提供する。
論文 参考訳(メタデータ) (2024-01-10T13:26:19Z) - Exploring Machine Learning Models for Federated Learning: A Review of
Approaches, Performance, and Limitations [1.1060425537315088]
フェデレートラーニング(Federated Learning)は、個人のデータのプライバシを保護するために強化された分散学習フレームワークである。
危機時には、リアルタイムな意思決定が重要である場合、フェデレートされた学習は、機密データを共有せずに複数のエンティティをまとめて機能させることができる。
本稿では,ここ数年のプライバシ保護機械学習に関する文献を体系的にレビューする。
論文 参考訳(メタデータ) (2023-11-17T19:23:21Z) - A Survey on Federated Unlearning: Challenges, Methods, and Future Directions [21.90319100485268]
近年、忘れられる権利(RTBF)の概念は、デジタル信頼とAI安全のためのデータプライバシの重要な側面となっている。
マシン・アンラーニング(MU)は、MLモデルによって識別可能な情報を選択的に排除できる、かなりの注目を集めている。
FUは、フェデレートされた学習環境におけるデータ消去の課題に直面している。
論文 参考訳(メタデータ) (2023-10-31T13:32:00Z) - When Decentralized Optimization Meets Federated Learning [41.58479981773202]
フェデレーション学習は、分散データから知識を抽出するための新しい学習パラダイムである。
既存のフェデレートされた学習アプローチのほとんどは、単一ポイントの障害に対して脆弱な集中的な設定に集中しています。
この問題に対処する別の戦略は、分散化された通信トポロジである。
論文 参考訳(メタデータ) (2023-06-05T03:51:14Z) - Combating Exacerbated Heterogeneity for Robust Models in Federated
Learning [91.88122934924435]
対人訓練と連合学習の組み合わせは、望ましくない頑丈さの劣化につながる可能性がある。
我々は、Slack Federated Adversarial Training (SFAT)と呼ばれる新しいフレームワークを提案する。
各種ベンチマークおよび実世界のデータセットに対するSFATの合理性と有効性を検証する。
論文 参考訳(メタデータ) (2023-03-01T06:16:15Z) - A Survey of Trustworthy Federated Learning with Perspectives on
Security, Robustness, and Privacy [47.89042524852868]
Federated Learning (FL) は,さまざまな現実のシナリオに対して,有望なソリューションとして注目されている。
しかし、データの分離とプライバシーに関する課題は、FLシステムの信頼性を脅かす。
論文 参考訳(メタデータ) (2023-02-21T12:52:12Z) - Towards Federated Long-Tailed Learning [76.50892783088702]
データプライバシとクラス不均衡は、多くの機械学習タスクの例外ではなく、標準である。
最近の試みでは、広範にわたるプライベートデータから学習する問題に対処する一方で、長い尾を持つデータから学ぶことが試みられている。
本稿では,プライバシ保護フェデレーション学習(FL)フレームワークのコンテキスト下での長期的データ分散(LT)学習に焦点を当てた。
論文 参考訳(メタデータ) (2022-06-30T02:34:22Z) - A Field Guide to Federated Optimization [161.3779046812383]
フェデレートされた学習と分析は、分散化されたデータからモデル(あるいは統計)を協調的に学習するための分散アプローチである。
本稿では、フェデレート最適化アルゴリズムの定式化、設計、評価、分析に関する勧告とガイドラインを提供する。
論文 参考訳(メタデータ) (2021-07-14T18:09:08Z) - Privacy and Robustness in Federated Learning: Attacks and Defenses [74.62641494122988]
このトピックに関する最初の包括的な調査を実施します。
FLの概念の簡潔な紹介と、1脅威モデル、2堅牢性に対する中毒攻撃と防御、3プライバシーに対する推論攻撃と防御、というユニークな分類学を通じて、私たちはこの重要なトピックのアクセス可能なレビューを提供します。
論文 参考訳(メタデータ) (2020-12-07T12:11:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。