論文の概要: Synthetic Forgetting without Access: A Few-shot Zero-glance Framework for Machine Unlearning
- arxiv url: http://arxiv.org/abs/2511.13116v1
- Date: Mon, 17 Nov 2025 08:16:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:24.995799
- Title: Synthetic Forgetting without Access: A Few-shot Zero-glance Framework for Machine Unlearning
- Title(参考訳): アクセス不要の合成フォーミング - 機械学習のためのゼロガンスフレームワーク
- Authors: Qipeng Song, Nan Yang, Ziqi Xu, Yue Li, Wei Shao, Feng Xia,
- Abstract要約: 機械学習は、トレーニングされたモデルから特定のデータの影響を排除し、プライバシコンプライアンスを保証することを目的としている。
GFOESは、生成フィードバックネットワーク(GFN)と2相微調整処理からなる新しいフレームワークである。
GFN は Optimal Erasure Samples (OES) を合成し、ターゲットクラスに高い損失を与える。
- 参考スコア(独自算出の注目度): 15.709760923810324
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine unlearning aims to eliminate the influence of specific data from trained models to ensure privacy compliance. However, most existing methods assume full access to the original training dataset, which is often impractical. We address a more realistic yet challenging setting: few-shot zero-glance, where only a small subset of the retained data is available and the forget set is entirely inaccessible. We introduce GFOES, a novel framework comprising a Generative Feedback Network (GFN) and a two-phase fine-tuning procedure. GFN synthesises Optimal Erasure Samples (OES), which induce high loss on target classes, enabling the model to forget class-specific knowledge without access to the original forget data, while preserving performance on retained classes. The two-phase fine-tuning procedure enables aggressive forgetting in the first phase, followed by utility restoration in the second. Experiments on three image classification datasets demonstrate that GFOES achieves effective forgetting at both logit and representation levels, while maintaining strong performance using only 5% of the original data. Our framework offers a practical and scalable solution for privacy-preserving machine learning under data-constrained conditions.
- Abstract(参考訳): 機械学習は、トレーニングされたモデルから特定のデータの影響を排除し、プライバシコンプライアンスを保証することを目的としている。
しかし、既存のほとんどのメソッドは、元のトレーニングデータセットへの完全なアクセスを前提としています。
少数ショットゼロガンス – 保持されたデータの小さなサブセットしか利用できず、完全にアクセス不能な、より現実的で難しい設定に対処する。
GFOESは、生成フィードバックネットワーク(GFN)と2相微調整処理からなる新しいフレームワークである。
GFN は Optimal Erasure Samples (OES) を合成し、ターゲットクラスに高い損失を与える。
二相微調整処理は、第1フェーズで積極的に忘れ、第2フェーズで実用性回復を可能にする。
3つの画像分類データセットの実験では、GFOESはロジットと表現レベルの両方で効果的な忘れを達成し、元のデータの5%しか使用せず、強力なパフォーマンスを維持している。
当社のフレームワークは,データ制約条件下でのプライバシ保護機械学習に対して,実用的でスケーラブルなソリューションを提供する。
関連論文リスト
- Learning More with Less: A Generalizable, Self-Supervised Framework for Privacy-Preserving Capacity Estimation with EV Charging Data [84.37348569981307]
自己教師付き事前学習に基づく第一種能力推定モデルを提案する。
我々のモデルは一貫して最先端のベースラインを上回っている。
論文 参考訳(メタデータ) (2025-10-05T08:58:35Z) - Targeted Forgetting of Image Subgroups in CLIP Models [30.78624907082701]
CLIPのようなファンデーションモデル(FM)は、様々なタスクで印象的なゼロショット性能を示している。
彼らはしばしば、ノイズの多いインターネットソースのデータセットから有害または望ましくない知識を継承する。
既存のモデルアンラーニングメソッドは、事前訓練されたデータセットへのアクセスに依存するか、あるいは粗い粒度のアンラーニングにフォーカスする。
過剰な鍛造を省きながら、対象とする知識を徐々に解き放つ新しい3段階アプローチを提案する。
論文 参考訳(メタデータ) (2025-06-03T17:50:03Z) - Machine Unlearning on Pre-trained Models by Residual Feature Alignment Using LoRA [15.542668474378633]
本稿では,事前学習モデルを用いた新しい機械学習手法を提案する。
LoRAを利用して、モデルの中間機能を事前訓練された特徴と残像に分解する。
本手法は,保持集合上のゼロ残差を学習し,未学習集合上でシフト残差を学習することを目的としている。
論文 参考訳(メタデータ) (2024-11-13T08:56:35Z) - TCGU: Data-centric Graph Unlearning based on Transferable Condensation [36.670771080732486]
Transferable Condensation Graph Unlearning (TCGU)は、ゼロガンスグラフアンラーニングのためのデータ中心のソリューションである。
我々は,TGUが既存のGU手法よりもモデルユーティリティ,未学習効率,未学習効率において優れた性能を発揮することを示す。
論文 参考訳(メタデータ) (2024-10-09T02:14:40Z) - Neural Machine Unranking [3.2340528215722553]
ニューラルマシン・アンランキング(NuMuR)と呼ばれる新しいタスクを導入する。
既存のタスクやモデルに依存しない未学習アプローチは、2つのコア課題のため、NuMuRには最適ではない。
CoCoL は(1) 絡み合ったサンプルの性能を維持しつつ, 忘れられた集合の関連点を減少させる対照的な損失と(2) 保持集合の精度を維持する一貫した損失とからなる。
論文 参考訳(メタデータ) (2024-08-09T20:36:40Z) - Learning to Unlearn: Instance-wise Unlearning for Pre-trained
Classifiers [71.70205894168039]
そこでは、事前訓練されたモデルからインスタンスのセットに関する情報を削除することを目標としています。
本稿では,1)表現レベルでの忘れを克服するために,敵の例を活用すること,2)不必要な情報を伝播するネットワークパラメータをピンポイントする重み付け指標を活用すること,の2つの方法を提案する。
論文 参考訳(メタデータ) (2023-01-27T07:53:50Z) - SCARF: Self-Supervised Contrastive Learning using Random Feature
Corruption [72.35532598131176]
本稿では,特徴のランダムなサブセットを乱してビューを形成するコントラスト学習手法であるSCARFを提案する。
SCARFは既存の戦略を補完し、オートエンコーダのような代替手段より優れていることを示す。
論文 参考訳(メタデータ) (2021-06-29T08:08:33Z) - Prior Guided Feature Enrichment Network for Few-Shot Segmentation [64.91560451900125]
最先端のセマンティックセグメンテーション手法は、良い結果を得るために十分なラベル付きデータを必要とする。
少数のラベル付きサポートサンプルを持つ新しいクラスに迅速に適応するモデルを学習することで,この問題に対処するためのショットセグメンテーションが提案されている。
これらのフレームワークは、高レベルのセマンティック情報の不適切な使用により、目に見えないクラスにおける一般化能力の低下という課題に直面している。
論文 参考訳(メタデータ) (2020-08-04T10:41:32Z) - privGAN: Protecting GANs from membership inference attacks at low cost [5.735035463793008]
Generative Adversarial Networks (GAN)は、合成画像のリリースを、オリジナルのデータセットを公開せずにデータを共有するための実行可能なアプローチにした。
近年の研究では、GANモデルとその合成データを用いて、相手によるトレーニングセットメンバーシップを推測できることが示されている。
ここでは、ジェネレータが識別器を騙すだけでなく、メンバーシップ推論攻撃を防御するために訓練される新しいGANアーキテクチャ(privGAN)を開発する。
論文 参考訳(メタデータ) (2019-12-31T20:47:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。