論文の概要: OPC: One-Point-Contraction Unlearning Toward Deep Feature Forgetting
- arxiv url: http://arxiv.org/abs/2507.07754v1
- Date: Thu, 10 Jul 2025 13:34:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-11 16:40:15.419287
- Title: OPC: One-Point-Contraction Unlearning Toward Deep Feature Forgetting
- Title(参考訳): OPC: 深層機能構築に向けた一点抽出アンラーニング
- Authors: Jaeheun Jung, Bosung Jung, Suhyun Bae, Donghun Lee,
- Abstract要約: 機械学習は、プライバシ、法的、倫理的要件を満たすために、訓練されたモデルから特定のデータやクラスの影響を取り除こうとする。
既存の未学習の手法では、未学習モデルの現象は、モデル応答のみを調整することで、忘れるふりをする傾向がある。
我々は,一点抽出(OPC)という新しい汎用的未学習アルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 2.6815971241599126
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Machine unlearning seeks to remove the influence of particular data or class from trained models to meet privacy, legal, or ethical requirements. Existing unlearning methods tend to forget shallowly: phenomenon of an unlearned model pretend to forget by adjusting only the model response, while its internal representations retain information sufficiently to restore the forgotten data or behavior. We empirically confirm the widespread shallowness by reverting the forgetting effect of various unlearning methods via training-free performance recovery attack and gradient-inversion-based data reconstruction attack. To address this vulnerability fundamentally, we define a theoretical criterion of ``deep forgetting'' based on one-point-contraction of feature representations of data to forget. We also propose an efficient approximation algorithm, and use it to construct a novel general-purpose unlearning algorithm: One-Point-Contraction (OPC). Empirical evaluations on image classification unlearning benchmarks show that OPC achieves not only effective unlearning performance but also superior resilience against both performance recovery attack and gradient-inversion attack. The distinctive unlearning performance of OPC arises from the deep feature forgetting enforced by its theoretical foundation, and recaps the need for improved robustness of machine unlearning methods.
- Abstract(参考訳): 機械学習は、プライバシ、法的、倫理的要件を満たすために、訓練されたモデルから特定のデータやクラスの影響を取り除こうとする。
既存の未学習モデルは、モデル応答のみを調整することによって忘れるふりをするが、内部表現は、忘れたデータや振舞いを復元するのに十分な情報を保持する。
トレーニング不要なパフォーマンス回復攻撃と勾配インバージョンに基づくデータ再構成攻撃によって、様々なアンラーニング手法の忘れ効果を反転させることにより、広範に浅度を実証的に確認する。
この脆弱性を根本的に解決するために、我々は、忘れるべきデータの特徴表現の一点抽出に基づいて 'Deep forgetting'' の理論的基準を定義する。
また、効率的な近似アルゴリズムを提案し、これを新しい汎用未学習アルゴリズムであるOne-Point-Contraction (OPC)を構築するために利用する。
画像分類アンラーニングベンチマークの実証評価では、OPCは効果的なアンラーニング性能だけでなく、性能回復攻撃と勾配反転攻撃の両方に対する優れたレジリエンスも達成している。
OPCのユニークなアンラーニング性能は、その理論的基礎によって強制される深い特徴を忘れることから生まれ、マシンアンラーニング手法の堅牢性向上の必要性を再克服する。
関連論文リスト
- RESTOR: Knowledge Recovery in Machine Unlearning [71.75834077528305]
Webスケールコーパスでトレーニングされた大規模な言語モデルは、プライベートまたはセンシティブな情報を含むことができる。
このようなデータポイントの効果を排除するために、いくつかの機械学習アルゴリズムが提案されている。
機械学習評価のためのRESTORフレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-31T20:54:35Z) - Learn while Unlearn: An Iterative Unlearning Framework for Generative Language Models [52.03511469562013]
3つのコアコンポーネントで構成されるICU(Iterative Contrastive Unlearning)フレームワークを紹介する。
知識未学習誘導モジュールは、未学習の損失を使用して、特定の知識を除去するためにターゲットとする。
Contrastive Learning Enhancementモジュールは、純粋な未学習の目標に対してモデルの表現力を保持する。
イテレーティブ・アンラーニング・リファインメントモジュールは、進行中の評価と更新を通じて、アンラーニングプロセスを動的に調整する。
論文 参考訳(メタデータ) (2024-07-25T07:09:35Z) - Machine unlearning through fine-grained model parameters perturbation [26.653596302257057]
そこで本研究では,不エクササイズマシンの非学習戦略であるTop-KパラメータとRandom-kパラメータの微粒化を提案する。
また,機械学習の有効性を評価する上での課題にも取り組む。
論文 参考訳(メタデータ) (2024-01-09T07:14:45Z) - DUCK: Distance-based Unlearning via Centroid Kinematics [40.2428948628001]
本研究は,Centroid Kinematics (DUCK) による遠隔学習(Distance-based Unlearning)と呼ばれる新しいアンラーニングアルゴリズムを導入する。
アルゴリズムの性能評価は、様々なベンチマークデータセットにまたがって行われる。
また,適応学習スコア (Adaptive Unlearning Score, AUS) と呼ばれる新しい指標を導入し, 対象データに対する未学習プロセスの有効性だけでなく, 元のモデルに対する性能損失の定量化も行った。
論文 参考訳(メタデータ) (2023-12-04T17:10:25Z) - Machine Unlearning of Features and Labels [72.81914952849334]
機械学習モデルにおけるアンラーニングとラベルのファーストシナリオを提案する。
提案手法は,影響関数の概念に基づいて,モデルパラメータのクローズドフォーム更新によるアンラーニングを実現する。
論文 参考訳(メタデータ) (2021-08-26T04:42:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。