論文の概要: Federated Unlearning: A Survey on Methods, Design Guidelines, and Evaluation Metrics
- arxiv url: http://arxiv.org/abs/2401.05146v3
- Date: Tue, 05 Nov 2024 13:47:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-06 14:56:46.316134
- Title: Federated Unlearning: A Survey on Methods, Design Guidelines, and Evaluation Metrics
- Title(参考訳): フェデレーテッド・アンラーニング:方法論,設計ガイドライン,評価指標に関する調査
- Authors: Nicolò Romandini, Alessio Mora, Carlo Mazzocca, Rebecca Montanari, Paolo Bellavista,
- Abstract要約: フェデレートアンラーニング(FU)アルゴリズムは、完全なモデルの再トレーニングなしに、クライアントのコントリビューションを効率的に除去する。
本稿では、背景概念、実証的証拠、効率的なFUスキームの設計・実装に関する実践的ガイドラインを提供する。
- 参考スコア(独自算出の注目度): 2.7456900944642686
- License:
- Abstract: Federated learning (FL) enables collaborative training of a machine learning (ML) model across multiple parties, facilitating the preservation of users' and institutions' privacy by maintaining data stored locally. Instead of centralizing raw data, FL exchanges locally refined model parameters to build a global model incrementally. While FL is more compliant with emerging regulations such as the European General Data Protection Regulation (GDPR), ensuring the right to be forgotten in this context - allowing FL participants to remove their data contributions from the learned model - remains unclear. In addition, it is recognized that malicious clients may inject backdoors into the global model through updates, e.g., to generate mispredictions on specially crafted data examples. Consequently, there is the need for mechanisms that can guarantee individuals the possibility to remove their data and erase malicious contributions even after aggregation, without compromising the already acquired "good" knowledge. This highlights the necessity for novel federated unlearning (FU) algorithms, which can efficiently remove specific clients' contributions without full model retraining. This article provides background concepts, empirical evidence, and practical guidelines to design/implement efficient FU schemes. This study includes a detailed analysis of the metrics for evaluating unlearning in FL and presents an in-depth literature review categorizing state-of-the-art FU contributions under a novel taxonomy. Finally, we outline the most relevant and still open technical challenges, by identifying the most promising research directions in the field.
- Abstract(参考訳): フェデレートラーニング(FL)は、複数のパーティにまたがる機械学習(ML)モデルの協調トレーニングを可能にし、ローカルに保存されたデータを維持することで、ユーザのプライバシと機関のプライバシの保存を容易にする。
FLは、生データを集中する代わりに、局所的に洗練されたモデルパラメータを交換して、グローバルモデルを漸進的に構築する。
FLは欧州一般データ保護規則(GDPR)などの新たな規則に準拠しているが、この文脈で忘れられる権利を保証することは、FL参加者が学習モデルからデータコントリビューションを削除できるようにすることである。
さらに、悪意のあるクライアントが更新を通じてバックドアをグローバルモデルに注入し、特殊なデータ例の誤予測を生成することも認識されている。
結果として、既に取得した「良い」知識を妥協することなく、個人がデータを削除し、集約後も悪意のあるコントリビューションを消去する可能性を保証できるメカニズムが必要である。
これは、完全なモデルの再トレーニングなしに、特定のクライアントのコントリビューションを効率的に除去できる、新しいフェデレーション・アンラーニング(FU)アルゴリズムの必要性を強調している。
本稿では、背景概念、実証的証拠、効率的なFUスキームの設計・実装に関する実践的ガイドラインを提供する。
本研究は、FLにおける未学習の評価指標を詳細に分析し、新しい分類法の下で、最先端のFU貢献を分類する詳細な文献レビューを提示する。
最後に、この分野でもっとも有望な研究方向を特定することによって、最も関連性があり、まだオープンな技術的課題を概説する。
関連論文リスト
- FedQUIT: On-Device Federated Unlearning via a Quasi-Competent Virtual Teacher [4.291269657919828]
フェデレートラーニング(FL)は、機械学習モデルが協調的にトレーニングされた場合、個人のデータに対するより良いプライバシー保証を約束する。
FL参加者がその参加するFLフレームワークから離脱する権利を行使する場合、FLソリューションはすべての必要なステップを実行するべきである。
本稿では,FedQUITを提案する。FedQUITは知識蒸留を用いて,FLグローバルモデルからの忘れたデータの寄与を探索する新しいアルゴリズムである。
論文 参考訳(メタデータ) (2024-08-14T14:36:28Z) - The Frontier of Data Erasure: Machine Unlearning for Large Language Models [56.26002631481726]
大規模言語モデル(LLM)はAIの進歩の基礎となっている。
LLMは機密情報、偏見情報、著作権情報を記憶し、広めることによってリスクを生じさせる。
機械学習は、これらの懸念を軽減するための最先端のソリューションとして現れます。
論文 参考訳(メタデータ) (2024-03-23T09:26:15Z) - SoK: Challenges and Opportunities in Federated Unlearning [32.0365189539138]
本論文は、この新興分野における研究動向と課題を特定することを目的として、未学習の未学習文学を深く研究することを目的としている。
論文 参考訳(メタデータ) (2024-03-04T19:35:08Z) - Federated Learning with Projected Trajectory Regularization [65.6266768678291]
フェデレーション学習は、ローカルデータを共有せずに、分散クライアントから機械学習モデルの共同トレーニングを可能にする。
連合学習における重要な課題の1つは、クライアントにまたがる識別できない分散データを扱うことである。
本稿では,データ問題に対処するための予測軌道正則化(FedPTR)を備えた新しいフェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-22T02:12:08Z) - Tunable Soft Prompts are Messengers in Federated Learning [55.924749085481544]
フェデレートラーニング(FL)は、複数の参加者が分散データソースを使用して機械学習モデルを協調的にトレーニングすることを可能にする。
FLにおけるモデルプライバシ保護の欠如は無視できない課題となっている。
そこで本研究では,ソフトプロンプトによって参加者間の情報交換を実現する新しいFLトレーニング手法を提案する。
論文 参考訳(メタデータ) (2023-11-12T11:01:10Z) - A Survey on Federated Unlearning: Challenges, Methods, and Future Directions [21.90319100485268]
近年、忘れられる権利(RTBF)の概念は、デジタル信頼とAI安全のためのデータプライバシの重要な側面となっている。
マシン・アンラーニング(MU)は、MLモデルによって識別可能な情報を選択的に排除できる、かなりの注目を集めている。
FUは、フェデレートされた学習環境におけるデータ消去の課題に直面している。
論文 参考訳(メタデータ) (2023-10-31T13:32:00Z) - A Survey of Federated Unlearning: A Taxonomy, Challenges and Future
Directions [71.16718184611673]
プライバシ保護のためのフェデレートラーニング(FL)の進化により、忘れられる権利を実装する必要性が高まっている。
選択的な忘れ方の実装は、その分散した性質のため、FLでは特に困難である。
Federated Unlearning(FU)は、データプライバシの必要性の増加に対応する戦略的ソリューションとして登場した。
論文 参考訳(メタデータ) (2023-10-30T01:34:33Z) - Feature Correlation-guided Knowledge Transfer for Federated
Self-supervised Learning [19.505644178449046]
特徴相関に基づくアグリゲーション(FedFoA)を用いたフェデレーション型自己教師型学習法を提案する。
私たちの洞察は、機能相関を利用して、特徴マッピングを整列し、ローカルトレーニングプロセス中にクライアント間でローカルモデルの更新を校正することにあります。
我々はFedFoAがモデルに依存しないトレーニングフレームワークであることを証明する。
論文 参考訳(メタデータ) (2022-11-14T13:59:50Z) - Knowledge Distillation for Federated Learning: a Practical Guide [8.2791533759453]
フェデレートラーニング(FL)は、センシティブな生データを集中的に収集することなく、ディープラーニングモデルのトレーニングを可能にする。
FLの最もよく使われるアルゴリズムはパラメータに基づくスキーム(フェデレート平均化など)である。
我々は、特定のFL問題に適したKDベースのアルゴリズムのレビューを行う。
論文 参考訳(メタデータ) (2022-11-09T08:31:23Z) - Fine-tuning Global Model via Data-Free Knowledge Distillation for
Non-IID Federated Learning [86.59588262014456]
フェデレートラーニング(Federated Learning, FL)は、プライバシ制約下での分散学習パラダイムである。
サーバ内のグローバルモデル(FedFTG)を微調整するデータフリー知識蒸留法を提案する。
私たちのFedFTGは最先端(SOTA)のFLアルゴリズムよりも優れており、FedAvg、FedProx、FedDyn、SCAFFOLDの強化のための強力なプラグインとして機能します。
論文 参考訳(メタデータ) (2022-03-17T11:18:17Z) - Do Gradient Inversion Attacks Make Federated Learning Unsafe? [70.0231254112197]
フェデレートラーニング(FL)は、生データを共有することなく、AIモデルの協調トレーニングを可能にする。
モデル勾配からのディープニューラルネットワークの反転に関する最近の研究は、トレーニングデータの漏洩を防止するためのFLの安全性に関する懸念を提起した。
本研究では,本論文で提示されたこれらの攻撃が実際のFLユースケースでは実行不可能であることを示し,新たなベースライン攻撃を提供する。
論文 参考訳(メタデータ) (2022-02-14T18:33:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。