論文の概要: Exploring Federated Unlearning: Analysis, Comparison, and Insights
- arxiv url: http://arxiv.org/abs/2310.19218v4
- Date: Tue, 07 Jan 2025 16:31:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-08 16:58:02.517178
- Title: Exploring Federated Unlearning: Analysis, Comparison, and Insights
- Title(参考訳): フェデレーション・アンラーニングの探求 - 分析、比較、洞察
- Authors: Yang Zhao, Jiaxi Yang, Yiling Tao, Lixu Wang, Xiaoxiao Li, Dusit Niyato, H. Vincent Poor,
- Abstract要約: フェデレーション・アンラーニングは、フェデレーション・システムで訓練されたモデルからデータを選択的に除去することを可能にする。
本稿では,既存のフェデレーション・アンラーニング手法について検討し,アルゴリズムの効率,モデル精度への影響,プライバシ保護の有効性について検討する。
フェデレートされたアンラーニング手法を評価するための統一ベンチマークであるOpenFederatedUnlearningフレームワークを提案する。
- 参考スコア(独自算出の注目度): 101.64910079905566
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The increasing demand for privacy-preserving machine learning has spurred interest in federated unlearning, which enables the selective removal of data from models trained in federated systems. However, developing federated unlearning methods presents challenges, particularly in balancing three often conflicting objectives: privacy, accuracy, and efficiency. This paper provides a comprehensive analysis of existing federated unlearning approaches, examining their algorithmic efficiency, impact on model accuracy, and effectiveness in preserving privacy. We discuss key trade-offs among these dimensions and highlight their implications for practical applications across various domains. Additionally, we propose the OpenFederatedUnlearning framework, a unified benchmark for evaluating federated unlearning methods, incorporating classic baselines and diverse performance metrics. Our findings aim to guide practitioners in navigating the complex interplay of these objectives, offering insights to achieve effective and efficient federated unlearning. Finally, we outline directions for future research to further advance the state of federated unlearning techniques.
- Abstract(参考訳): プライバシ保護機械学習の需要の増加は、フェデレートされたアンラーニングへの関心を喚起し、フェデレーションされたシステムでトレーニングされたモデルからデータを選択的に除去することを可能にする。
しかしながら、フェデレートされたアンラーニング手法の開発は、特にプライバシー、正確性、効率性の3つの相反する目標のバランスをとる上で、課題を提示している。
本稿では,既存のフェデレーション・アンラーニング手法を包括的に分析し,アルゴリズムの効率,モデル精度への影響,プライバシ保護の有効性について検討する。
これらの領域における重要なトレードオフについて論じ、様々な領域にわたる実践的応用にその意味を強調した。
さらに,従来のベースラインと多様なパフォーマンス指標を取り入れた,フェデレートされたアンラーニング手法を評価するための統一ベンチマークであるOpenFederatedUnlearningフレームワークを提案する。
本研究の目的は、実践者がこれらの目的の複雑な相互作用をナビゲートし、効果的かつ効率的なフェデレーション・アンラーニングを実現するための洞察を提供することである。
最後に,今後の研究の方向性について概説する。
関連論文リスト
- Benchmarking Federated Machine Unlearning methods for Tabular Data [9.30408906787193]
マシンアンラーニングにより、モデルは要求時に特定のデータを忘れることができる。
本稿では,フェデレートされた環境での機械学習手法のベンチマークに関する先駆的な研究について述べる。
機械学習、ランダムフォレスト、ロジスティック回帰モデルの両方を用いて、この機能とインスタンスレベルでのアンラーニングについて検討する。
論文 参考訳(メタデータ) (2025-04-01T15:53:36Z) - Ten Challenging Problems in Federated Foundation Models [55.343738234307544]
フェデレーション・ファンデーション・モデル(Federated Foundation Models、FedFM)は、フェデレーション・モデルの一般的な能力とフェデレーション・ラーニングのプライバシー保護能力を融合させる分散学習パラダイムである。
本稿では,FedFMに固有の10の課題について,基礎理論,プライベートデータの利用,継続学習,非学習,非IIDおよびグラフデータ,双方向知識伝達,インセンティブ機構設計,ゲーム機構設計,モデル透かし,効率を包括的に要約する。
論文 参考訳(メタデータ) (2025-02-14T04:01:15Z) - FEDLAD: Federated Evaluation of Deep Leakage Attacks and Defenses [50.921333548391345]
フェデレーテッド・ラーニング(Federated Learning)は、分散型機械学習パラダイムをプライバシ保護するものだ。
近年の研究では、Deep Leakageと呼ばれる勾配技術によって、民間の真実データを復元できることが判明している。
本稿では、Deep Leakage攻撃と防御を評価するための総合的なベンチマークであるFEDLAD Framework(Federated Evaluation of Deep Leakage Attacks and Defenses)を紹介する。
論文 参考訳(メタデータ) (2024-11-05T11:42:26Z) - Advances in APPFL: A Comprehensive and Extensible Federated Learning Framework [1.4206132527980742]
Federated Learning(FL)は、データプライバシを保持しながら協調的なモデルトレーニングを可能にする分散機械学習パラダイムである。
本稿では,統合学習のためのフレームワークおよびベンチマークスイートであるAPPFLの開発における最近の進歩について述べる。
本稿では, 通信効率, プライバシー保護, 計算性能, 資源利用など, FLの様々な側面を評価する広範な実験を通じて, APPFLの能力を実証する。
論文 参考訳(メタデータ) (2024-09-17T22:20:26Z) - Federated Learning driven Large Language Models for Swarm Intelligence: A Survey [2.769238399659845]
Federated Learning (FL)は、大規模言語モデル(LLM)をトレーニングするための魅力的なフレームワークを提供する
私たちは機械学習に重点を置いています。これは、忘れられる権利のようなプライバシー規則に従う上で重要な側面です。
摂動技術やモデル分解,漸進学習など,効果的なアンラーニングを可能にするさまざまな戦略を探求する。
論文 参考訳(メタデータ) (2024-06-14T08:40:58Z) - Towards Effective Evaluations and Comparisons for LLM Unlearning Methods [97.2995389188179]
本稿では,大規模言語モデルにおける機械学習評価の精度向上を図る。
評価指標の堅牢性と、競合する目標間のトレードオフという、2つの重要な課題に対処します。
論文 参考訳(メタデータ) (2024-06-13T14:41:00Z) - Vertical Federated Learning for Effectiveness, Security, Applicability: A Survey [67.48187503803847]
Vertical Federated Learning(VFL)は、プライバシ保護のための分散学習パラダイムである。
近年の研究では、VFLの様々な課題に対処する有望な成果が示されている。
この調査は、最近の展開を体系的に概観する。
論文 参考訳(メタデータ) (2024-05-25T16:05:06Z) - Advances and Open Challenges in Federated Foundation Models [34.37509703688661]
ファウンデーションモデル(FM)とフェデレートラーニング(FL)の統合は、人工知能(AI)における変革的パラダイムを提示する
本稿では,フェデレーション・ファンデーション・モデル(FedFM)の新興分野に関する包括的調査を行う。
論文 参考訳(メタデータ) (2024-04-23T09:44:58Z) - Federated Learning with New Knowledge: Fundamentals, Advances, and
Futures [69.8830772538421]
本稿では,フェデレートラーニング(FL)における新しい知識の源泉を体系的に定義する。
本研究は,新たな知識の到来時期と形態が定式化過程に及ぼす影響について検討する。
シナリオの設定,効率,セキュリティなど,さまざまな要因を考慮し,FLの今後の方向性を新たな知識で論じる。
論文 参考訳(メタデータ) (2024-02-03T21:29:31Z) - Federated Unlearning: A Survey on Methods, Design Guidelines, and Evaluation Metrics [2.7456900944642686]
フェデレートアンラーニング(FU)アルゴリズムは、完全なモデルの再トレーニングなしに、クライアントのコントリビューションを効率的に除去する。
本稿では、背景概念、実証的証拠、効率的なFUスキームの設計・実装に関する実践的ガイドラインを提供する。
論文 参考訳(メタデータ) (2024-01-10T13:26:19Z) - Exploring Machine Learning Models for Federated Learning: A Review of
Approaches, Performance, and Limitations [1.1060425537315088]
フェデレートラーニング(Federated Learning)は、個人のデータのプライバシを保護するために強化された分散学習フレームワークである。
危機時には、リアルタイムな意思決定が重要である場合、フェデレートされた学習は、機密データを共有せずに複数のエンティティをまとめて機能させることができる。
本稿では,ここ数年のプライバシ保護機械学習に関する文献を体系的にレビューする。
論文 参考訳(メタデータ) (2023-11-17T19:23:21Z) - A Survey on Federated Unlearning: Challenges, Methods, and Future Directions [21.90319100485268]
近年、忘れられる権利(RTBF)の概念は、デジタル信頼とAI安全のためのデータプライバシの重要な側面となっている。
マシン・アンラーニング(MU)は、MLモデルによって識別可能な情報を選択的に排除できる、かなりの注目を集めている。
FUは、フェデレートされた学習環境におけるデータ消去の課題に直面している。
論文 参考訳(メタデータ) (2023-10-31T13:32:00Z) - When Decentralized Optimization Meets Federated Learning [41.58479981773202]
フェデレーション学習は、分散データから知識を抽出するための新しい学習パラダイムである。
既存のフェデレートされた学習アプローチのほとんどは、単一ポイントの障害に対して脆弱な集中的な設定に集中しています。
この問題に対処する別の戦略は、分散化された通信トポロジである。
論文 参考訳(メタデータ) (2023-06-05T03:51:14Z) - Combating Exacerbated Heterogeneity for Robust Models in Federated
Learning [91.88122934924435]
対人訓練と連合学習の組み合わせは、望ましくない頑丈さの劣化につながる可能性がある。
我々は、Slack Federated Adversarial Training (SFAT)と呼ばれる新しいフレームワークを提案する。
各種ベンチマークおよび実世界のデータセットに対するSFATの合理性と有効性を検証する。
論文 参考訳(メタデータ) (2023-03-01T06:16:15Z) - A Survey of Trustworthy Federated Learning with Perspectives on
Security, Robustness, and Privacy [47.89042524852868]
Federated Learning (FL) は,さまざまな現実のシナリオに対して,有望なソリューションとして注目されている。
しかし、データの分離とプライバシーに関する課題は、FLシステムの信頼性を脅かす。
論文 参考訳(メタデータ) (2023-02-21T12:52:12Z) - Towards Federated Long-Tailed Learning [76.50892783088702]
データプライバシとクラス不均衡は、多くの機械学習タスクの例外ではなく、標準である。
最近の試みでは、広範にわたるプライベートデータから学習する問題に対処する一方で、長い尾を持つデータから学ぶことが試みられている。
本稿では,プライバシ保護フェデレーション学習(FL)フレームワークのコンテキスト下での長期的データ分散(LT)学習に焦点を当てた。
論文 参考訳(メタデータ) (2022-06-30T02:34:22Z) - A Field Guide to Federated Optimization [161.3779046812383]
フェデレートされた学習と分析は、分散化されたデータからモデル(あるいは統計)を協調的に学習するための分散アプローチである。
本稿では、フェデレート最適化アルゴリズムの定式化、設計、評価、分析に関する勧告とガイドラインを提供する。
論文 参考訳(メタデータ) (2021-07-14T18:09:08Z) - Privacy and Robustness in Federated Learning: Attacks and Defenses [74.62641494122988]
このトピックに関する最初の包括的な調査を実施します。
FLの概念の簡潔な紹介と、1脅威モデル、2堅牢性に対する中毒攻撃と防御、3プライバシーに対する推論攻撃と防御、というユニークな分類学を通じて、私たちはこの重要なトピックのアクセス可能なレビューを提供します。
論文 参考訳(メタデータ) (2020-12-07T12:11:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。