論文の概要: Sequential Subspace Noise Injection Prevents Accuracy Collapse in Certified Unlearning
- arxiv url: http://arxiv.org/abs/2601.05134v1
- Date: Thu, 08 Jan 2026 17:23:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-09 17:01:53.300953
- Title: Sequential Subspace Noise Injection Prevents Accuracy Collapse in Certified Unlearning
- Title(参考訳): 逐次サブスペースノイズ注入による未学習の精度低下防止
- Authors: Polina Dolgova, Sebastian U. Stich,
- Abstract要約: 差分プライバシーに基づく認定されていない未学習は、強い保証を提供するが、ほとんど実践的ではない。
本稿では,パラメータ空間のサブスペース間でノイズ予算を分散する逐次ノイズスケジューリングを提案する。
ノイズの多い微調整の分析をサブスペース設定に拡張し、同じ$(varepsilon,)$プライバシー予算が維持されていることを証明します。
- 参考スコア(独自算出の注目度): 28.628342735283752
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Certified unlearning based on differential privacy offers strong guarantees but remains largely impractical: the noisy fine-tuning approaches proposed so far achieve these guarantees but severely reduce model accuracy. We propose sequential noise scheduling, which distributes the noise budget across orthogonal subspaces of the parameter space, rather than injecting it all at once. This simple modification mitigates the destructive effect of noise while preserving the original certification guarantees. We extend the analysis of noisy fine-tuning to the subspace setting, proving that the same $(\varepsilon,δ)$ privacy budget is retained. Empirical results on image classification benchmarks show that our approach substantially improves accuracy after unlearning while remaining robust to membership inference attacks. These results show that certified unlearning can achieve both rigorous guarantees and practical utility.
- Abstract(参考訳): これまで提案されたノイズの多い微調整アプローチは、これらの保証を達成しているが、モデルの精度は著しく低下している。
本稿では,パラメータ空間の直交部分空間にノイズ予算を分散するシーケンシャルノイズスケジューリングを提案する。
この単純な修正は、元の認証保証を保ちながら、ノイズの破壊効果を軽減します。
我々は、ノイズの多い微調整の分析をサブスペース設定にまで拡張し、同じ$(\varepsilon,δ)$のプライバシー予算が維持されていることを証明した。
画像分類ベンチマークによる実験結果から,本手法は,メンバーシップ推論攻撃に頑健でありながら,アンラーニング後の精度を大幅に向上することが示された。
これらの結果は、認定された未学習は厳密な保証と実用性の両方を達成することができることを示している。
関連論文リスト
- Exploring the Noise Robustness of Online Conformal Prediction [16.623599788608185]
本研究では,一様ラベル雑音下でのオンラインコンフォメーション予測のロバスト性について検討する。
本稿では,新しいロバストなピンボール損失で閾値を更新することで,ノイズロバストオンラインコンフォーマル予測(NR-OCP)を提案する。
理論解析により,NR-OCPは一定の学習率と動的学習率の両方のスケジュールのカバレッジギャップをなくすことが示されている。
論文 参考訳(メタデータ) (2025-01-30T14:08:26Z) - Robust Representation Consistency Model via Contrastive Denoising [83.47584074390842]
ランダムな平滑化は、敵の摂動に対する堅牢性を証明する理論的保証を提供する。
拡散モデルは、ノイズ摂動サンプルを浄化するためにランダムな平滑化に成功している。
我々は,画素空間における拡散軌跡に沿った生成的モデリングタスクを,潜在空間における識別的タスクとして再構成する。
論文 参考訳(メタデータ) (2025-01-22T18:52:06Z) - Confidence-aware Training of Smoothed Classifiers for Certified
Robustness [75.95332266383417]
我々は「ガウス雑音下での精度」を、入力に対する対角的ロバスト性の容易に計算可能なプロキシとして利用する。
実験の結果, 提案手法は, 最先端の訓練手法による信頼性向上を継続的に示すことがわかった。
論文 参考訳(メタデータ) (2022-12-18T03:57:12Z) - Square Root Principal Component Pursuit: Tuning-Free Noisy Robust Matrix
Recovery [8.581512812219737]
本稿では,ノイズや外周波で劣化した観測結果から低ランク行列を復元する新しい枠組みを提案する。
平方根のラッソにインスパイアされたこの新しい定式化は、ノイズレベルに関する事前の知識を必要としない。
正規化パラメータの1つの普遍的な選択は、(事前未知の)雑音レベルに比例した再構成誤差を達成するのに十分であることを示す。
論文 参考訳(メタデータ) (2021-06-17T02:28:11Z) - Consistency Regularization for Certified Robustness of Smoothed
Classifiers [89.72878906950208]
最近のランダムな平滑化技術は、最悪の$ell$-robustnessを平均ケースのロバストネスに変換することができることを示している。
その結果,スムーズな分類器の精度と信頼性の高いロバスト性とのトレードオフは,ノイズに対する予測一貫性の規則化によって大きく制御できることが判明した。
論文 参考訳(メタデータ) (2020-06-07T06:57:43Z) - Black-Box Certification with Randomized Smoothing: A Functional
Optimization Based Framework [60.981406394238434]
本稿では,非ガウス雑音とより一般的な攻撃に対する対向的認証の一般的な枠組みを提案する。
提案手法は,従来の手法よりも優れた認証結果を得るとともに,ランダム化スムーズな認証の新たな視点を提供する。
論文 参考訳(メタデータ) (2020-02-21T07:52:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。