論文の概要: Certified Per-Instance Unlearning Using Individual Sensitivity Bounds
- arxiv url: http://arxiv.org/abs/2602.15602v1
- Date: Tue, 17 Feb 2026 14:18:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-18 16:03:18.088524
- Title: Certified Per-Instance Unlearning Using Individual Sensitivity Bounds
- Title(参考訳): 個人感性境界を用いたインスタンスごとの未学習認定
- Authors: Hanna Benarroch, Jamal Atif, Olivier Cappé,
- Abstract要約: 本稿では,各データポイントの学習ソリューションへの個々の寄与に合わせた適応型/インスタンス間雑音校正に基づく代替手法について検討する。
ランゲヴィン力学を用いて訓練された尾根回帰では、高い確率/インスタンス感度境界が導出され、ノイズ注入が著しく少ない未学習が得られる。
- 参考スコア(独自算出の注目度): 6.029433950934382
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Certified machine unlearning can be achieved via noise injection leading to differential privacy guarantees, where noise is calibrated to worst-case sensitivity. Such conservative calibration often results in performance degradation, limiting practical applicability. In this work, we investigate an alternative approach based on adaptive per-instance noise calibration tailored to the individual contribution of each data point to the learned solution. This raises the following challenge: how can one establish formal unlearning guarantees when the mechanism depends on the specific point to be removed? To define individual data point sensitivities in noisy gradient dynamics, we consider the use of per-instance differential privacy. For ridge regression trained via Langevin dynamics, we derive high-probability per-instance sensitivity bounds, yielding certified unlearning with substantially less noise injection. We corroborate our theoretical findings through experiments in linear settings and provide further empirical evidence on the relevance of the approach in deep learning settings.
- Abstract(参考訳): 認証されたマシンのアンラーニングは、ノイズ注入によって、ノイズを最悪の感度に調整する、差分プライバシー保証につながる。
このような保守的な校正は、しばしば性能を低下させ、実用性を制限する。
本研究では,各データポイントの個々の寄与に合わせた適応型/インスタンスノイズキャリブレーションに基づく代替手法について検討する。
メカニズムが削除すべき特定のポイントに依存している場合、どのようにして正式なアンラーニング保証を確立することができるのか?
雑音勾配力学における個々のデータポイントの感度を定義するために, インスタンスごとの差分プライバシーの利用を検討する。
ランゲヴィン力学を用いて訓練された尾根回帰では、高い確率/インスタンス感度境界が導出され、ノイズ注入が著しく少ない未学習が得られる。
線形環境における実験を通して理論的知見を相関させ, 深層学習環境におけるアプローチの関連性に関する実証的な証拠を提供する。
関連論文リスト
- Differentially Private Two-Stage Gradient Descent for Instrumental Variable Regression [22.733602577854825]
差分プライバシー制約下でのインストゥルメンタル変数回帰(IVaR)について検討する。
勾配更新に慎重に校正された雑音を注入することにより、差分プライバシーを確保するノイズの多い2状態勾配降下アルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-09-26T18:02:58Z) - DynaNoise: Dynamic Probabilistic Noise Injection for Defending Against Membership Inference Attacks [6.610581923321801]
会員推論攻撃(MIA)は、トレーニングデータセットのプライバシーに重大なリスクをもたらす。
従来の緩和技術は、トレーニングや推論中に一定量のノイズを注入することに依存している。
問合せ感度に基づいて動的にノイズ注入を変調する適応型アプローチであるDynaNoiseを提案する。
論文 参考訳(メタデータ) (2025-05-19T17:07:00Z) - Forward Learning with Differential Privacy [27.164507868291913]
そこで我々は,DP-ULR(Disdifferial Private Unified Likelihood Ratio)という,ブループライエタリな前方学習アルゴリズムを提案する。
提案実験により,DP-ULRは,バックプロパゲーションに基づく従来の差分プライバシートレーニングアルゴリズムと比較して,競争性能が向上することが示唆された。
論文 参考訳(メタデータ) (2025-04-01T04:14:53Z) - Adaptive Conformal Inference by Betting [51.272991377903274]
データ生成プロセスについて仮定することなく適応型共形推論の問題を考察する。
適応型共形推論のための既存のアプローチは、オンライン勾配勾配の変種を用いたピンボール損失の最適化に基づいている。
本稿では,パラメータフリーなオンライン凸最適化手法を利用した適応型共形推論手法を提案する。
論文 参考訳(メタデータ) (2024-12-26T18:42:08Z) - Training More Robust Classification Model via Discriminative Loss and Gaussian Noise Injection [7.535952418691443]
本稿では,クラス内コンパクト性を明示する最小層に適用した損失関数を提案する。
また、ノイズの多いデータクラスタをクリーンなクラスタに近づける、クラスワイズな機能アライメント機構を提案する。
提案手法は, クリーンなデータに対して高い精度を維持しながら, 各種摂動に対するモデルロバスト性を大幅に強化する。
論文 参考訳(メタデータ) (2024-05-28T18:10:45Z) - Improve Noise Tolerance of Robust Loss via Noise-Awareness [60.34670515595074]
本稿では,NARL-Adjuster(NARL-Adjuster for brevity)と呼ばれる,ハイパーパラメータ予測関数を適応的に学習するメタラーニング手法を提案する。
4つのSOTAロバストな損失関数を我々のアルゴリズムに統合し,提案手法の一般性および性能をノイズ耐性と性能の両面で検証した。
論文 参考訳(メタデータ) (2023-01-18T04:54:58Z) - On the Interaction Between Differential Privacy and Gradient Compression
in Deep Learning [55.22219308265945]
差分プライバシーと勾配圧縮のガウス的メカニズムがディープラーニングにおけるテスト精度にどのように影響するかを考察する。
勾配圧縮は一般に非プライベートトレーニングではテスト精度に悪影響を及ぼすが、差分プライベートトレーニングではテスト精度を改善することがある。
論文 参考訳(メタデータ) (2022-11-01T20:28:45Z) - Gradient Leakage Attack Resilient Deep Learning [7.893378392969824]
勾配の漏洩攻撃は ディープラーニングで最も悪質な プライバシーの脅威の1つだ
差分プライバシーを持つディープラーニングは、差分プライバシーを保証するディープラーニングモデルを公開するためのデファクトスタンダードである。
本稿では,差分プライバシーを用いた勾配リーク耐性深層学習の代替手法について検討する。
論文 参考訳(メタデータ) (2021-12-25T03:33:02Z) - Robustness of Accuracy Metric and its Inspirations in Learning with
Noisy Labels [51.66448070984615]
十分な数の雑音サンプルに対してトレーニング精度を最大化すると,ほぼ最適な分類器が得られることを示す。
検証のために、ノイズの多い検証セットが信頼できることを証明し、モデル選択のクリティカルな要求に対処する。
理論結果に動機づけられて,ノイズラベルをトレーニングしたモデルの特徴付けを行い,ノイズ検証セットの有用性を検証する。
論文 参考訳(メタデータ) (2020-12-08T03:37:47Z) - RDP-GAN: A R\'enyi-Differential Privacy based Generative Adversarial
Network [75.81653258081435]
GAN(Generative Adversarial Network)は,プライバシ保護の高い現実的なサンプルを生成する能力によって,近年注目を集めている。
しかし、医療記録や財務記録などの機密・私的な訓練例にGANを適用すると、個人の機密・私的な情報を漏らしかねない。
本稿では、学習中の損失関数の値にランダムノイズを慎重に付加することにより、GAN内の差分プライバシー(DP)を実現するR'enyi-differentially private-GAN(RDP-GAN)を提案する。
論文 参考訳(メタデータ) (2020-07-04T09:51:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。