論文の概要: Less Noise, Same Certificate: Retain Sensitivity for Unlearning
- arxiv url: http://arxiv.org/abs/2603.03172v1
- Date: Tue, 03 Mar 2026 17:21:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-04 21:38:10.888454
- Title: Less Noise, Same Certificate: Retain Sensitivity for Unlearning
- Title(参考訳): ノイズの少ない, 同じ証明: 未学習に対する感受性の維持
- Authors: Carolin Heinzler, Kasra Malihi, Amartya Sanyal,
- Abstract要約: Certified Machine Unlearningは、データセット$S$でトレーニングされたモデルから、削除セット$U$の影響を確実に除去することを目的としている。
多くの既存の認証済みの未学習手法は、差分プライバシー(DP)の手法に適応し、グローバルな感度に調整されたノイズを追加する。
このDPスタイルの校正は、未学習では過度に保守的であることが示されている。
この区別によって、我々はセマンティクスを、$R$を固定しながら、削除した$U$よりも最悪のケースの出力変更として定義する。
- 参考スコア(独自算出の注目度): 12.34913959100445
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Certified machine unlearning aims to provably remove the influence of a deletion set $U$ from a model trained on a dataset $S$, by producing an unlearned output that is statistically indistinguishable from retraining on the retain set $R:=S\setminus U$. Many existing certified unlearning methods adapt techniques from Differential Privacy (DP) and add noise calibrated to global sensitivity, i.e., the worst-case output change over all adjacent datasets. We show that this DP-style calibration is often overly conservative for unlearning, based on a key observation: certified unlearning, by definition, does not require protecting the privacy of the retained data $R$. Motivated by this distinction, we define retain sensitivity as the worst-case output change over deletions $U$ while keeping $R$ fixed. While insufficient for DP, retain sensitivity is exactly sufficient for unlearning, allowing for the same certificates with less noise. We validate these reductions in noise theoretically and empirically across several problems, including the weight of minimum spanning trees, PCA, and ERM. Finally, we refine the analysis of two widely used certified unlearning algorithms through the lens of retain sensitivity, leveraging the regularity induced by $R$ to further reduce noise and improve utility.
- Abstract(参考訳): Certified Machine Unlearningは、データセット$S$でトレーニングされたモデルから、削除セット$U$の影響を確実に除去することを目的としている。
多くの既存の認証されていない未学習手法は、差分プライバシー(DP)の手法を適用し、グローバルな感度に調整されたノイズを加える。
このDPスタイルの校正は、鍵となる観察に基づいて、未学習にとって過度に保守的であることが示される: 認定未学習は定義上、保持されたデータのプライバシを保護する必要がない。
この区別によって、我々はセマンティクスを、$R$を固定しながら、削除した$U$よりも最悪のケースの出力変更として定義する。
DPには不十分だが、感度を維持することは未学習に十分であり、ノイズが少なくて同じ証明書を利用できる。
我々は,これらのノイズの低減効果を,最小幅木,PCA,ERMなどのいくつかの問題に対して理論的,実験的に検証した。
最後に、高感度レンズを用いて広く使われている2つの未学習アルゴリズムの解析を改良し、$R$によって誘導される規則性を活用し、ノイズの低減と実用性の向上を図る。
関連論文リスト
- Information Hidden in Gradients of Regression with Target Noise [2.8911861322232686]
勾配だけでヘッセンが明らかになることを示す。
我々はガウス以下の入力の下で非漸近作用素ノルム保証を提供する。
論文 参考訳(メタデータ) (2026-01-26T14:50:16Z) - Sequential Subspace Noise Injection Prevents Accuracy Collapse in Certified Unlearning [28.628342735283752]
差分プライバシーに基づく認定されていない未学習は、強い保証を提供するが、ほとんど実践的ではない。
本稿では,パラメータ空間のサブスペース間でノイズ予算を分散する逐次ノイズスケジューリングを提案する。
ノイズの多い微調整の分析をサブスペース設定に拡張し、同じ$(varepsilon,)$プライバシー予算が維持されていることを証明します。
論文 参考訳(メタデータ) (2026-01-08T17:23:13Z) - Reinforcement Learning with Verifiable yet Noisy Rewards under Imperfect Verifiers [90.50039419576807]
RLVR(Reinforcement Learning with Verifiable Rewards)は、人為的なラベル付けを避けるために、自動検証に対するポリシーを訓練する。
認証ハッキングの脆弱性を軽減するため、多くのRLVRシステムはトレーニング中にバイナリ$0,1$の報酬を破棄する。
この選択にはコストがかかる:textitfalse negatives(正しい回答、FNを拒絶)とtextitfalse positives(間違った回答、FPを受け入れる)を導入する。
論文 参考訳(メタデータ) (2025-10-01T13:56:44Z) - Attribute-Efficient PAC Learning of Sparse Halfspaces with Constant Malicious Noise Rate [10.550885570889527]
スパースハーフスペースの属性効率の学習は、機械学習理論における根本的な問題である。
本稿では,データ内に一定の量の悪意のあるノイズが存在することを考察し,基礎となる$s$スパースハーフスペースを学習することを目的とする。
このような条件下では、既存のヒンジ損失最小化プログラムの単純な変種により、属性効率が達成可能であることを示す。
論文 参考訳(メタデータ) (2025-05-27T17:02:28Z) - FedSVD: Adaptive Orthogonalization for Private Federated Learning with LoRA [68.44043212834204]
Low-Rank Adaptation (LoRA) は、学習における言語モデルの効率的な微調整に広く用いられている。
Low-Rank Adaptation (LoRA) は、学習における言語モデルの効率的な微調整に広く用いられている。
論文 参考訳(メタデータ) (2025-05-19T07:32:56Z) - Certified Robustness Under Bounded Levenshtein Distance [55.54271307451233]
畳み込み型分類器のリプシッツ定数をレヴェンシュテイン距離に対して計算する最初の方法を提案する。
我々の方法であるLipsLevは、それぞれ18.80ドル%と13.93ドル%の精度を1ドルと2ドルで得ることができる。
論文 参考訳(メタデータ) (2025-01-23T13:58:53Z) - Certified Adversarial Robustness Within Multiple Perturbation Bounds [38.3813286696956]
ランダムスムーシング(Randomized smoothing、RS)は、敵の攻撃に対するよく知られた防御である。
本研究では,複数の摂動境界に対して同時に認証された対向ロバスト性を改善することを目的としている。
論文 参考訳(メタデータ) (2023-04-20T16:42:44Z) - Class Prototype-based Cleaner for Label Noise Learning [73.007001454085]
半教師付き学習法は、雑音ラベル学習問題に対する現在のSOTAソリューションである。
textbfClass textbfPrototype-based label textbfCleaner。
論文 参考訳(メタデータ) (2022-12-21T04:56:41Z) - An Experimental Study on Private Aggregation of Teacher Ensemble
Learning for End-to-End Speech Recognition [51.232523987916636]
差分プライバシー(DP)は、プライバシーデータにノイズのある歪みを課すことで、深層モデルのトレーニングに使用されるユーザー情報を保護するための1つのデータ保護手段である。
本研究では、PATE学習を動的パターン、すなわち音声を扱うように拡張し、音響データの漏洩を避けるために、ASRに関する最初の実験を行う。
論文 参考訳(メタデータ) (2022-10-11T16:55:54Z) - The Fundamental Price of Secure Aggregation in Differentially Private
Federated Learning [34.630300910399036]
我々は、$varepsilon$ Central DPの下で最高の精度を得るために必要な基本的な通信コストを特徴付ける。
我々の結果は、$tildeOleft( min(n2varepsilon2, d) right)$ bits per client が十分かつ必要であることを示している。
これにより、最先端のSecAgg分散DPスキームに対して大幅に改善される。
論文 参考訳(メタデータ) (2022-03-07T22:56:09Z) - Do We Need to Penalize Variance of Losses for Learning with Label Noise? [91.38888889609002]
ノイズラベルを用いた学習では,差分を増大させる必要がある。
ラベルノイズ遷移行列を利用することで、正規化器は損失の分散を低減することができる。
実験的に,損失の分散を増大させることにより,合成データセットと実世界のデータセットのベースラインの一般化能力を大幅に向上させる。
論文 参考訳(メタデータ) (2022-01-30T06:19:08Z) - Learning with Instance-Dependent Label Noise: A Sample Sieve Approach [24.143469284851456]
人間のアノテートされたラベルは、しばしばノイズを起こしやすい。
このようなノイズの存在は、結果として生じるディープニューラルネットワーク(DNN)モデルの性能を低下させる。
我々はCORES$2$を提案し、これは腐敗した例を徐々に Sieves する。
論文 参考訳(メタデータ) (2020-10-05T21:44:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。