論文の概要: Class-wise Federated Unlearning: Harnessing Active Forgetting with Teacher-Student Memory Generation
- arxiv url: http://arxiv.org/abs/2307.03363v2
- Date: Thu, 13 Mar 2025 15:10:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-14 15:49:34.286890
- Title: Class-wise Federated Unlearning: Harnessing Active Forgetting with Teacher-Student Memory Generation
- Title(参考訳): クラスワイド・フェデレーション・アンラーニング:教師学習記憶生成によるアクティブ・フォーミングのハーネス
- Authors: Yuyuan Li, Jiaming Zhang, Yixiu Liu, Chaochao Chen,
- Abstract要約: 能動的忘れ込みに基づく神経刺激型フェデレーション・アンラーニング・フレームワークを提案する。
我々のフレームワークは、新しい記憶を利用して古い記憶を上書きすることで、既存の方法と差別化している。
本手法は,バックドア攻撃に対する未学習の完全性を実現する。
- 参考スコア(独自算出の注目度): 11.638683787598817
- License:
- Abstract: Privacy concerns associated with machine learning models have driven research into machine unlearning, which aims to erase the memory of specific target training data from already trained models. This issue also arises in federated learning, creating the need to address the federated unlearning problem. However, federated unlearning remains a challenging task. On the one hand, current research primarily focuses on unlearning all data from a client, overlooking more fine-grained unlearning targets, e.g., class-wise and sample-wise removal. On the other hand, existing methods suffer from imprecise estimation of data influence and impose significant computational or storage burden. To address these issues, we propose a neuro-inspired federated unlearning framework based on active forgetting, which is independent of model architectures and suitable for fine-grained unlearning targets. Our framework distinguishes itself from existing methods by utilizing new memories to overwrite old ones. These new memories are generated through teacher-student learning. We further utilize refined elastic weight consolidation to mitigate catastrophic forgetting of non-target data. Extensive experiments on benchmark datasets demonstrate the efficiency and effectiveness of our method, achieving satisfactory unlearning completeness against backdoor attacks.
- Abstract(参考訳): マシンラーニングモデルに関連するプライバシに関する懸念は、すでにトレーニング済みのモデルから特定のターゲットトレーニングデータのメモリを消去することを目的とした、機械学習に関する研究を推進している。
この問題は、フェデレートされた学習においても発生し、フェデレーションされた未学習問題に対処する必要が生じる。
しかし、フェデレーション・アンラーニングは依然として難しい課題だ。
一方で、現在の研究は、主にクライアントからすべてのデータをアンラーニングすることに焦点を当てており、よりきめ細かい未学習ターゲット(例えば、クラスワイド、サンプルワイドの除去など)を見下ろしている。
一方,既存の手法ではデータの影響を不正確な推定に悩まされ,計算や記憶にかなりの負担がかかる。
これらの課題に対処するため,我々は,モデルアーキテクチャに依存しない,きめ細かな未学習対象に適した,能動的忘れ込みに基づく,神経に触発されたフェデレーション・アンラーニング・フレームワークを提案する。
我々のフレームワークは、新しい記憶を利用して古い記憶を上書きすることで、既存の方法と差別化している。
これらの新しい記憶は教師の学習によって生成される。
さらに,非ターゲットデータの破滅的忘れを緩和するために,改良された弾性重み統合を利用する。
ベンチマークデータセットの大規模な実験により,バックドア攻撃に対する未学習の完全性を十分に達成し,本手法の有効性を実証した。
関連論文リスト
- FedUHB: Accelerating Federated Unlearning via Polyak Heavy Ball Method [17.720414283108727]
モデルから特定のデータの影響を効果的に除去するために、フェデレート・アンラーニング(FU)が開発された。
我々は,Polyakヘビーボール最適化技術を活用した,新しい非学習手法であるFedUHBを提案する。
実験の結果,FedUHBは学習効率を向上するだけでなく,学習後の頑健なモデル性能も維持できることがわかった。
論文 参考訳(メタデータ) (2024-11-17T11:08:49Z) - Attribute-to-Delete: Machine Unlearning via Datamodel Matching [65.13151619119782]
機械学習 -- 事前訓練された機械学習モデルで、小さな"ターゲットセット"トレーニングデータを効率的に削除する -- は、最近関心を集めている。
最近の研究では、機械学習技術はこのような困難な環境では耐えられないことが示されている。
論文 参考訳(メタデータ) (2024-10-30T17:20:10Z) - A Unified Framework for Continual Learning and Unlearning [9.538733681436836]
継続的学習と機械学習は機械学習において重要な課題であり、通常は別々に対処される。
制御された知識蒸留を活用することにより,両課題に共同で取り組む新しい枠組みを導入する。
我々のアプローチは、最小限の忘れ込みと効果的な標的未学習で効率的な学習を可能にする。
論文 参考訳(メタデータ) (2024-08-21T06:49:59Z) - Learn while Unlearn: An Iterative Unlearning Framework for Generative Language Models [49.043599241803825]
Iterative Contrastive Unlearning (ICU)フレームワークは3つのコアコンポーネントで構成されている。
知識未学習誘導モジュールは、未学習の損失を通じて特定の知識を除去する。
Contrastive Learning Enhancementモジュールは、純粋な未学習の目標に対してモデルの表現力を維持する。
また、特定のデータ片の未学習範囲を動的に評価し、反復的な更新を行う反復未学習リファインメントモジュールも用意されている。
論文 参考訳(メタデータ) (2024-07-25T07:09:35Z) - Update Selective Parameters: Federated Machine Unlearning Based on Model Explanation [46.86767774669831]
モデル説明の概念に基づく、より効率的で効率的なフェデレーション・アンラーニング・スキームを提案する。
我々は、未学習のデータに対して、すでに訓練済みのモデルの中で最も影響力のあるチャネルを選択します。
論文 参考訳(メタデータ) (2024-06-18T11:43:20Z) - Adversarial Machine Unlearning [26.809123658470693]
本稿では,機械学習モデルに対する特定のトレーニングデータの影響を取り除くことを目的とした,機械学習の課題に焦点を当てた。
伝統的に、未学習アルゴリズムの開発は、ある種のプライバシー脅威である会員推論攻撃(MIA)と並行して実行される。
未学習アルゴリズムの設計にMIAを統合するゲーム理論フレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-11T20:07:22Z) - Scalable Federated Unlearning via Isolated and Coded Sharding [76.12847512410767]
フェデレートされたアンラーニングは、クライアントレベルのデータエフェクトを削除するための有望なパラダイムとして登場した。
本稿では,分散シャーディングと符号化コンピューティングに基づく,スケーラブルなフェデレーション・アンラーニング・フレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-29T08:41:45Z) - Learn to Unlearn for Deep Neural Networks: Minimizing Unlearning
Interference with Gradient Projection [56.292071534857946]
最近のデータプライバシ法は、機械学習への関心を喚起している。
課題は、残りのデータセットに関する知識を変更することなく、忘れたデータに関する情報を捨てることである。
我々は、プロジェクテッド・グラディエント・アンラーニング(PGU)という、プロジェクテッド・グラディエント・ベースの学習手法を採用する。
トレーニングデータセットがもはやアクセスできない場合でも、スクラッチからスクラッチで再トレーニングされたモデルと同じような振る舞いをするモデルを、我々のアンラーニング手法が生成できることを実証するための実証的な証拠を提供する。
論文 参考訳(メタデータ) (2023-12-07T07:17:24Z) - Model Sparsity Can Simplify Machine Unlearning [33.18951938708467]
最近のデータ規制要件に応えて、マシン・アンラーニング(MU)が重要なプロセスとして登場した。
本研究は,ウェイトプルーニングによるモデルスペーシフィケーションという,新しいモデルベース視点を紹介する。
理論と実践の両方において、モデルスパーシティは、近似アンラーナーのマルチ基準アンラーニング性能を高めることができることを示す。
論文 参考訳(メタデータ) (2023-04-11T02:12:02Z) - Machine Unlearning of Features and Labels [72.81914952849334]
機械学習モデルにおけるアンラーニングとラベルのファーストシナリオを提案する。
提案手法は,影響関数の概念に基づいて,モデルパラメータのクローズドフォーム更新によるアンラーニングを実現する。
論文 参考訳(メタデータ) (2021-08-26T04:42:24Z) - Learning to Reweight with Deep Interactions [104.68509759134878]
本稿では,教師モデルに内部状態を提供する改良型データ再重み付けアルゴリズムを提案する。
クリーン/ノイズラベルとニューラルマシン翻訳を用いた画像分類実験は、我々のアルゴリズムが従来の手法よりも大幅に改善されていることを実証的に実証した。
論文 参考訳(メタデータ) (2020-07-09T09:06:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。