論文の概要: Federated Unlearning: A Survey on Methods, Design Guidelines, and
Evaluation Metrics
- arxiv url: http://arxiv.org/abs/2401.05146v1
- Date: Wed, 10 Jan 2024 13:26:19 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-11 14:45:51.696267
- Title: Federated Unlearning: A Survey on Methods, Design Guidelines, and
Evaluation Metrics
- Title(参考訳): フェデレーション・アンラーニング:方法論,設計ガイドライン,評価指標に関する調査
- Authors: Nicol\`o Romandini, Alessio Mora, Carlo Mazzocca, Rebecca Montanari,
Paolo Bellavista
- Abstract要約: Federated Unlearning (FU)アルゴリズムは、完全なモデルの再トレーニングなしに、特定のクライアントのコントリビューションを効率的に除去する。
本調査は、FUスキームの設計・実装に関する背景概念、実証的証拠、実践的ガイドラインを提供する。
- 参考スコア(独自算出の注目度): 2.9093766645364663
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated Learning (FL) enables collaborative training of a Machine Learning
(ML) model across multiple parties, facilitating the preservation of users' and
institutions' privacy by keeping data stored locally. Instead of centralizing
raw data, FL exchanges locally refined model parameters to build a global model
incrementally. While FL is more compliant with emerging regulations such as the
European General Data Protection Regulation (GDPR), ensuring the right to be
forgotten in this context - allowing FL participants to remove their data
contributions from the learned model - remains unclear. In addition, it is
recognized that malicious clients may inject backdoors into the global model
through updates, e.g. to generate mispredictions on specially crafted data
examples. Consequently, there is the need for mechanisms that can guarantee
individuals the possibility to remove their data and erase malicious
contributions even after aggregation, without compromising the already acquired
"good" knowledge. This highlights the necessity for novel Federated Unlearning
(FU) algorithms, which can efficiently remove specific clients' contributions
without full model retraining. This survey provides background concepts,
empirical evidence, and practical guidelines to design/implement efficient FU
schemes. Our study includes a detailed analysis of the metrics for evaluating
unlearning in FL and presents an in-depth literature review categorizing
state-of-the-art FU contributions under a novel taxonomy. Finally, we outline
the most relevant and still open technical challenges, by identifying the most
promising research directions in the field.
- Abstract(参考訳): フェデレートラーニング(FL)は、複数のパーティにわたる機械学習(ML)モデルの協調トレーニングを可能にし、データをローカルに保存することで、ユーザのプライバシと機関のプライバシの保存を容易にする。
生データを集中化する代わりに、flは局所的に洗練されたモデルパラメータを交換してグローバルモデルをインクリメンタルに構築する。
FLは欧州一般データ保護規則(GDPR)などの新たな規則に準拠しているが、この文脈で忘れられる権利を保証することは、FL参加者が学習モデルからデータコントリビューションを削除できるようにすることである。
さらに、悪意のあるクライアントは、例えば特別なデータ例で誤った予測を生成するなどして、グローバルモデルにバックドアを注入することができる。
そのため、既に取得した「良い」知識を損なうことなく、個人が自分のデータを削除し、集約後も悪意のある貢献を消すことができることを保証できるメカニズムが必要となる。
これは、完全なモデルの再トレーニングなしに、特定のクライアントのコントリビューションを効率的に除去できる、新しいフェデレート・アンラーニング(FU)アルゴリズムの必要性を強調している。
本調査は,効率的なfuスキームの設計・実装のための背景概念,実証的エビデンス,実践的ガイドラインを提供する。
本研究は、FLにおける未学習評価指標の詳細な分析と、新しい分類法に基づく最先端のFUコントリビューションを分類した詳細な文献レビューを含む。
最後に、この分野で最も有望な研究の方向性を特定することで、最も重要かつまだオープンな技術的課題を概説する。
関連論文リスト
- FedQUIT: On-Device Federated Unlearning via a Quasi-Competent Virtual Teacher [4.291269657919828]
フェデレートラーニング(FL)は、機械学習モデルが協調的にトレーニングされた場合、個人のデータに対するより良いプライバシー保証を約束する。
FL参加者がその参加するFLフレームワークから離脱する権利を行使する場合、FLソリューションはすべての必要なステップを実行するべきである。
本稿では,FedQUITを提案する。FedQUITは知識蒸留を用いて,FLグローバルモデルからの忘れたデータの寄与を探索する新しいアルゴリズムである。
論文 参考訳(メタデータ) (2024-08-14T14:36:28Z) - The Frontier of Data Erasure: Machine Unlearning for Large Language Models [56.26002631481726]
大規模言語モデル(LLM)はAIの進歩の基礎となっている。
LLMは機密情報、偏見情報、著作権情報を記憶し、広めることによってリスクを生じさせる。
機械学習は、これらの懸念を軽減するための最先端のソリューションとして現れます。
論文 参考訳(メタデータ) (2024-03-23T09:26:15Z) - SoK: Challenges and Opportunities in Federated Unlearning [32.0365189539138]
本論文は、この新興分野における研究動向と課題を特定することを目的として、未学習の未学習文学を深く研究することを目的としている。
論文 参考訳(メタデータ) (2024-03-04T19:35:08Z) - Federated Learning with Projected Trajectory Regularization [65.6266768678291]
フェデレーション学習は、ローカルデータを共有せずに、分散クライアントから機械学習モデルの共同トレーニングを可能にする。
連合学習における重要な課題の1つは、クライアントにまたがる識別できない分散データを扱うことである。
本稿では,データ問題に対処するための予測軌道正則化(FedPTR)を備えた新しいフェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-22T02:12:08Z) - Tunable Soft Prompts are Messengers in Federated Learning [55.924749085481544]
フェデレートラーニング(FL)は、複数の参加者が分散データソースを使用して機械学習モデルを協調的にトレーニングすることを可能にする。
FLにおけるモデルプライバシ保護の欠如は無視できない課題となっている。
そこで本研究では,ソフトプロンプトによって参加者間の情報交換を実現する新しいFLトレーニング手法を提案する。
論文 参考訳(メタデータ) (2023-11-12T11:01:10Z) - A Survey on Federated Unlearning: Challenges, Methods, and Future Directions [21.90319100485268]
近年、忘れられる権利(RTBF)の概念は、デジタル信頼とAI安全のためのデータプライバシの重要な側面となっている。
マシン・アンラーニング(MU)は、MLモデルによって識別可能な情報を選択的に排除できる、かなりの注目を集めている。
FUは、フェデレートされた学習環境におけるデータ消去の課題に直面している。
論文 参考訳(メタデータ) (2023-10-31T13:32:00Z) - A Survey of Federated Unlearning: A Taxonomy, Challenges and Future
Directions [71.16718184611673]
プライバシ保護のためのフェデレートラーニング(FL)の進化により、忘れられる権利を実装する必要性が高まっている。
選択的な忘れ方の実装は、その分散した性質のため、FLでは特に困難である。
Federated Unlearning(FU)は、データプライバシの必要性の増加に対応する戦略的ソリューションとして登場した。
論文 参考訳(メタデータ) (2023-10-30T01:34:33Z) - Feature Correlation-guided Knowledge Transfer for Federated
Self-supervised Learning [19.505644178449046]
特徴相関に基づくアグリゲーション(FedFoA)を用いたフェデレーション型自己教師型学習法を提案する。
私たちの洞察は、機能相関を利用して、特徴マッピングを整列し、ローカルトレーニングプロセス中にクライアント間でローカルモデルの更新を校正することにあります。
我々はFedFoAがモデルに依存しないトレーニングフレームワークであることを証明する。
論文 参考訳(メタデータ) (2022-11-14T13:59:50Z) - Knowledge Distillation for Federated Learning: a Practical Guide [8.2791533759453]
フェデレートラーニング(FL)は、センシティブな生データを集中的に収集することなく、ディープラーニングモデルのトレーニングを可能にする。
FLの最もよく使われるアルゴリズムはパラメータに基づくスキーム(フェデレート平均化など)である。
我々は、特定のFL問題に適したKDベースのアルゴリズムのレビューを行う。
論文 参考訳(メタデータ) (2022-11-09T08:31:23Z) - Fine-tuning Global Model via Data-Free Knowledge Distillation for
Non-IID Federated Learning [86.59588262014456]
フェデレートラーニング(Federated Learning, FL)は、プライバシ制約下での分散学習パラダイムである。
サーバ内のグローバルモデル(FedFTG)を微調整するデータフリー知識蒸留法を提案する。
私たちのFedFTGは最先端(SOTA)のFLアルゴリズムよりも優れており、FedAvg、FedProx、FedDyn、SCAFFOLDの強化のための強力なプラグインとして機能します。
論文 参考訳(メタデータ) (2022-03-17T11:18:17Z) - Do Gradient Inversion Attacks Make Federated Learning Unsafe? [70.0231254112197]
フェデレートラーニング(FL)は、生データを共有することなく、AIモデルの協調トレーニングを可能にする。
モデル勾配からのディープニューラルネットワークの反転に関する最近の研究は、トレーニングデータの漏洩を防止するためのFLの安全性に関する懸念を提起した。
本研究では,本論文で提示されたこれらの攻撃が実際のFLユースケースでは実行不可能であることを示し,新たなベースライン攻撃を提供する。
論文 参考訳(メタデータ) (2022-02-14T18:33:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。