論文の概要: A Survey of Federated Unlearning: A Taxonomy, Challenges and Future
Directions
- arxiv url: http://arxiv.org/abs/2310.19218v2
- Date: Thu, 9 Nov 2023 18:26:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-10 17:22:20.190274
- Title: A Survey of Federated Unlearning: A Taxonomy, Challenges and Future
Directions
- Title(参考訳): フェデレーテッド・アンラーニングに関する調査研究 : 分類学,課題,今後の方向性
- Authors: Jiaxi Yang, Yang Zhao
- Abstract要約: フェデレート・アンラーニング(FU)に関する総合的な調査を報告する。
既存のアルゴリズム、目的、評価指標を提供し、FUの課題を特定します。
いくつかの研究をレビューし、比較することにより、様々なスキーム、潜在的な応用、今後の方向性の分類にまとめる。
- 参考スコア(独自算出の注目度): 13.262784458872652
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the development of trustworthy Federated Learning (FL), the requirement
of implementing right to be forgotten gives rise to the area of Federated
Unlearning (FU). Comparing to machine unlearning, a major challenge of FU lies
in the decentralized and privacy-preserving nature of FL, in which clients
jointly train a global model without sharing their raw data, making it
substantially more intricate to selectively unlearn specific information. In
that regard, many efforts have been made to tackle the challenges of FU and
have achieved significant progress. In this paper, we present a comprehensive
survey of FU. Specially, we provide the existing algorithms, objectives,
evaluation metrics, and identify some challenges of FU. By reviewing and
comparing some studies, we summarize them into a taxonomy for various schemes,
potential applications and future directions.
- Abstract(参考訳): 信頼に値する連合学習(fl)の発展に伴い、忘れられる権利を実践する必要性が、連合学習(fu)の領域を生み出している。
FLでは、クライアントが生データを共有せずにグローバルモデルを共同でトレーニングすることで、特定の情報を選択的に学習する作業が大幅に複雑になる。
その意味では、FUの課題に取り組むために多くの努力がなされており、大きな進歩を遂げている。
本稿では,FUに関する総合的な調査を行う。
特に,既存のアルゴリズム,目標,評価指標を提供し,fuの課題を特定する。
いくつかの研究をレビューし比較することにより、様々なスキーム、潜在的な応用、今後の方向性の分類にまとめる。
関連論文リスト
- Ten Challenging Problems in Federated Foundation Models [55.343738234307544]
フェデレーション・ファンデーション・モデル(Federated Foundation Models、FedFM)は、フェデレーション・モデルの一般的な能力とフェデレーション・ラーニングのプライバシー保護能力を融合させる分散学習パラダイムである。
本稿では,FedFMに固有の10の課題について,基礎理論,プライベートデータの利用,継続学習,非学習,非IIDおよびグラフデータ,双方向知識伝達,インセンティブ機構設計,ゲーム機構設計,モデル透かし,効率を包括的に要約する。
論文 参考訳(メタデータ) (2025-02-14T04:01:15Z) - Concurrent vertical and horizontal federated learning with fuzzy cognitive maps [1.104960878651584]
本研究ではファジィ認知地図を用いた新しいフェデレーション学習フレームワークを提案する。
多様なデータ分散と非識別分散機能によって引き起こされる課題を包括的に解決するように設計されている。
その結果,プライバシと機密性の基準を維持しつつ,望ましい学習結果を達成するためのアプローチの有効性が示された。
論文 参考訳(メタデータ) (2024-12-17T12:11:14Z) - FEDLAD: Federated Evaluation of Deep Leakage Attacks and Defenses [50.921333548391345]
フェデレーテッド・ラーニング(Federated Learning)は、分散型機械学習パラダイムをプライバシ保護するものだ。
近年の研究では、Deep Leakageと呼ばれる勾配技術によって、民間の真実データを復元できることが判明している。
本稿では、Deep Leakage攻撃と防御を評価するための総合的なベンチマークであるFEDLAD Framework(Federated Evaluation of Deep Leakage Attacks and Defenses)を紹介する。
論文 参考訳(メタデータ) (2024-11-05T11:42:26Z) - Federated Learning driven Large Language Models for Swarm Intelligence: A Survey [2.769238399659845]
Federated Learning (FL)は、大規模言語モデル(LLM)をトレーニングするための魅力的なフレームワークを提供する
私たちは機械学習に重点を置いています。これは、忘れられる権利のようなプライバシー規則に従う上で重要な側面です。
摂動技術やモデル分解,漸進学習など,効果的なアンラーニングを可能にするさまざまな戦略を探求する。
論文 参考訳(メタデータ) (2024-06-14T08:40:58Z) - A Unified and General Framework for Continual Learning [58.72671755989431]
継続学習(CL)は、以前取得した知識を維持しながら、動的かつ変化するデータ分布から学ぶことに焦点を当てている。
正規化ベース、ベイズベース、メモリ再生ベースなど、破滅的な忘れ込みの課題に対処する様々な手法が開発されている。
本研究の目的は,既存の方法論を包含し,整理する包括的かつ包括的な枠組みを導入することで,このギャップを埋めることである。
論文 参考訳(メタデータ) (2024-03-20T02:21:44Z) - Exploring Machine Learning Models for Federated Learning: A Review of
Approaches, Performance, and Limitations [1.1060425537315088]
フェデレートラーニング(Federated Learning)は、個人のデータのプライバシを保護するために強化された分散学習フレームワークである。
危機時には、リアルタイムな意思決定が重要である場合、フェデレートされた学習は、機密データを共有せずに複数のエンティティをまとめて機能させることができる。
本稿では,ここ数年のプライバシ保護機械学習に関する文献を体系的にレビューする。
論文 参考訳(メタデータ) (2023-11-17T19:23:21Z) - When Decentralized Optimization Meets Federated Learning [41.58479981773202]
フェデレーション学習は、分散データから知識を抽出するための新しい学習パラダイムである。
既存のフェデレートされた学習アプローチのほとんどは、単一ポイントの障害に対して脆弱な集中的な設定に集中しています。
この問題に対処する別の戦略は、分散化された通信トポロジである。
論文 参考訳(メタデータ) (2023-06-05T03:51:14Z) - Combating Exacerbated Heterogeneity for Robust Models in Federated
Learning [91.88122934924435]
対人訓練と連合学習の組み合わせは、望ましくない頑丈さの劣化につながる可能性がある。
我々は、Slack Federated Adversarial Training (SFAT)と呼ばれる新しいフレームワークを提案する。
各種ベンチマークおよび実世界のデータセットに対するSFATの合理性と有効性を検証する。
論文 参考訳(メタデータ) (2023-03-01T06:16:15Z) - A Field Guide to Federated Optimization [161.3779046812383]
フェデレートされた学習と分析は、分散化されたデータからモデル(あるいは統計)を協調的に学習するための分散アプローチである。
本稿では、フェデレート最適化アルゴリズムの定式化、設計、評価、分析に関する勧告とガイドラインを提供する。
論文 参考訳(メタデータ) (2021-07-14T18:09:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。