論文の概要: A Robust Certified Machine Unlearning Method Under Distribution Shift
- arxiv url: http://arxiv.org/abs/2601.06967v1
- Date: Sun, 11 Jan 2026 15:53:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-13 19:08:01.092881
- Title: A Robust Certified Machine Unlearning Method Under Distribution Shift
- Title(参考訳): 分散シフト下におけるロバスト認証機械の学習方法
- Authors: Jinduo Guo, Yinzhi Cao,
- Abstract要約: 我々はニュートン法で認定されたアンラーニングが非非I.d.アンラーニングセットで非効率かつ非効率になることを示す。
本研究では,分散認識型アンラーニングフレームワークにより,より優れたアンラーニング手法を提案する。
- 参考スコア(独自算出の注目度): 14.904880015049208
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The Newton method has been widely adopted to achieve certified unlearning. A critical assumption in existing approaches is that the data requested for unlearning are selected i.i.d.(independent and identically distributed). However,the problem of certified unlearning under non-i.i.d. deletions remains largely unexplored. In practice, unlearning requests are inherently biased, leading to non-i.i.d. deletions and causing distribution shifts between the original and retained datasets. In this paper, we show that certified unlearning with the Newton method becomes inefficient and ineffective under non-i.i.d. unlearning sets. We then propose a better certified unlearning approach by performing a distribution-aware certified unlearning framework based on iterative Newton updates constrained by a trust region. Our method provides a closer approximation to the retrained model and yields a tighter pre-run bound on the gradient residual, thereby ensuring efficient (epsilon, delta)-certified unlearning. To demonstrate its practical effectiveness under distribution shift, we also conduct extensive experiments across multiple evaluation metrics, providing a comprehensive assessment of our approach.
- Abstract(参考訳): ニュートン法は、認定されていない未学習を達成するために広く採用されている。
既存のアプローチにおける重要な前提は、未学習の要求されたデータが選択されることである。
しかし、非I.D.削除の下での認定未学習の問題はほとんど未解決のままである。
実際には、アンラーニング要求は本質的にバイアスを受けており、非I.D.削除を引き起こし、元のデータセットと保持されたデータセット間の分散シフトを引き起こす。
本稿では,ニュートン法で認定されたアンラーニングが,非非教育的アンラーニングセットの下で非効率かつ非効率になることを示す。
そこで我々は,信頼領域に制約された反復的ニュートン更新に基づいて,分散対応のアンラーニングフレームワークを実行することにより,より優れたアンラーニング手法を提案する。
提案手法は, 再学習モデルに近似し, 勾配残差に対してより厳密な事前実行を達成し, 効率の良い(エプシロン, デルタ)未学習を実現する。
また、分布シフト時の実効性を示すため、複数の評価指標をまたいだ広範な実験を行い、我々のアプローチを総合的に評価する。
関連論文リスト
- Certified Unlearning in Decentralized Federated Learning [24.229643475639293]
分散連合学習(DFL)では、クライアントがローカル更新を隣人とのみ交換することで、モデル情報がネットワーク全体に伝播し混在する。
ニュートンスタイルの更新に基づくDFLのための新しい認定アンラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2026-01-10T05:39:24Z) - Reference-Specific Unlearning Metrics Can Hide the Truth: A Reality Check [60.77691669644931]
本研究では,非学習モデルと参照モデル間の分布類似度を測定する新しい尺度であるFADE(Functional Alignment for Distributional Equivalence)を提案する。
FADEは出力分布全体の機能的アライメントをキャプチャし、真の未学習の原則的評価を提供する。
これらの知見は、現在の評価実践における根本的なギャップを明らかにし、FADEが真に効果的な未学習手法を開発し評価するための、より堅牢な基盤を提供することを示した。
論文 参考訳(メタデータ) (2025-10-14T20:50:30Z) - Redefining Machine Unlearning: A Conformal Prediction-Motivated Approach [11.609354498110358]
機械学習は、訓練されたモデルから特定のデータの影響を取り除こうとする。
本稿では,UA と MIA にまたがる誤分類データには,予測セットに基礎的真理ラベルがまだ含まれていないことを明らかにする。
本稿では,記憶品質をより確実に評価する共形予測に着想を得た2つの新しい指標を提案する。
論文 参考訳(メタデータ) (2025-01-31T18:58:43Z) - Towards Effective Evaluations and Comparisons for LLM Unlearning Methods [97.2995389188179]
本稿では,大規模言語モデルにおける機械学習評価の精度向上を図る。
評価指標の堅牢性と、競合する目標間のトレードオフという、2つの重要な課題に対処します。
論文 参考訳(メタデータ) (2024-06-13T14:41:00Z) - Rethinking Classifier Re-Training in Long-Tailed Recognition: A Simple
Logits Retargeting Approach [102.0769560460338]
我々は,クラスごとのサンプル数に関する事前知識を必要とせず,シンプルなロジットアプローチ(LORT)を開発した。
提案手法は,CIFAR100-LT, ImageNet-LT, iNaturalist 2018など,様々な不均衡データセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2024-03-01T03:27:08Z) - Class-wise Federated Unlearning: Harnessing Active Forgetting with Teacher-Student Memory Generation [11.638683787598817]
能動的忘れ込みに基づく神経刺激型フェデレーション・アンラーニング・フレームワークを提案する。
我々のフレームワークは、新しい記憶を利用して古い記憶を上書きすることで、既存の方法と差別化している。
本手法は,バックドア攻撃に対する未学習の完全性を実現する。
論文 参考訳(メタデータ) (2023-07-07T03:07:26Z) - Model Sparsity Can Simplify Machine Unlearning [33.18951938708467]
最近のデータ規制要件に応えて、マシン・アンラーニング(MU)が重要なプロセスとして登場した。
本研究は,ウェイトプルーニングによるモデルスペーシフィケーションという,新しいモデルベース視点を紹介する。
理論と実践の両方において、モデルスパーシティは、近似アンラーナーのマルチ基準アンラーニング性能を高めることができることを示す。
論文 参考訳(メタデータ) (2023-04-11T02:12:02Z) - Agree to Disagree: Diversity through Disagreement for Better
Transferability [54.308327969778155]
本稿では,D-BAT(Diversity-By-dis-Agreement Training)を提案する。
我々は、D-BATが一般化された相違の概念から自然に現れることを示す。
論文 参考訳(メタデータ) (2022-02-09T12:03:02Z) - Learning Diverse Representations for Fast Adaptation to Distribution
Shift [78.83747601814669]
本稿では,複数のモデルを学習する手法を提案する。
分散シフトへの迅速な適応を促進するフレームワークの能力を実証する。
論文 参考訳(メタデータ) (2020-06-12T12:23:50Z) - Learning the Truth From Only One Side of the Story [58.65439277460011]
一般化線形モデルに焦点をあて、このサンプリングバイアスを調整しなければ、モデルは準最適に収束するか、あるいは最適解に収束しないかもしれないことを示す。
理論的保証を伴って適応的なアプローチを提案し、いくつかの既存手法を実証的に上回っていることを示す。
論文 参考訳(メタデータ) (2020-06-08T18:20:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。