論文の概要: Inference-time Unlearning Using Conformal Prediction
- arxiv url: http://arxiv.org/abs/2602.03787v1
- Date: Tue, 03 Feb 2026 17:46:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-04 18:37:15.616222
- Title: Inference-time Unlearning Using Conformal Prediction
- Title(参考訳): コンフォーマル予測を用いた推論時間未学習
- Authors: Somnath Basu Roy Chowdhury, Rahul Kidambi, Avinava Dubey, David Wang, Gokhan Mergen, Amr Ahmed, Aranyak Mehta,
- Abstract要約: Unlearningは、トレーニングされた機械学習モデルから、スクラッチからトレーニングすることなく、特定の情報を効率的に除去するプロセスである。
本稿では、モデルパラメータを更新することなく、検証者からのフィードバックを用いて、生成した応答の質を反復的に改善するフレームワークを提案する。
本稿では,既存の最先端手法を著しく上回り,未学習ベンチマークにおける未学習誤差を最大93%削減する。
- 参考スコア(独自算出の注目度): 13.479885316485209
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine unlearning is the process of efficiently removing specific information from a trained machine learning model without retraining from scratch. Existing unlearning methods, which often provide provable guarantees, typically involve retraining a subset of model parameters based on a forget set. While these approaches show promise in certain scenarios, their underlying assumptions are often challenged in real-world applications -- particularly when applied to generative models. Furthermore, updating parameters using these unlearning procedures often degrades the general-purpose capabilities the model acquired during pre-training. Motivated by these shortcomings, this paper considers the paradigm of inference time unlearning -- wherein, the generative model is equipped with an (approximately correct) verifier that judges whether the model's response satisfies appropriate unlearning guarantees. This paper introduces a framework that iteratively refines the quality of the generated responses using feedback from the verifier without updating the model parameters. The proposed framework leverages conformal prediction to reduce computational overhead and provide distribution-free unlearning guarantees. This paper's approach significantly outperforms existing state-of-the-art methods, reducing unlearning error by up to 93% across challenging unlearning benchmarks.
- Abstract(参考訳): 機械学習は、訓練された機械学習モデルから、スクラッチからトレーニングすることなく、特定の情報を効率的に除去するプロセスである。
証明可能な保証を提供する既存のアンラーニングメソッドは、通常、忘れられたセットに基づいてモデルのパラメータのサブセットをトレーニングする。
これらのアプローチは、特定のシナリオにおいて有望であることを示しているが、その基礎となる仮定は、特に生成モデルに適用する場合、現実世界のアプリケーションでしばしば挑戦される。
さらに、これらの未学習プロシージャを使用したパラメータの更新は、事前学習時に取得した汎用能力を劣化させることが多い。
これらの欠点に触発された本研究では、推論時間アンラーニングのパラダイムを考察し、モデルが適切なアンラーニング保証を満たすかどうかを判断する(正確には)検証器を備える。
本稿では、モデルパラメータを更新することなく、検証者からのフィードバックを用いて、生成した応答の質を反復的に改善するフレームワークを提案する。
提案フレームワークは、共形予測を利用して計算オーバーヘッドを低減し、分散のない未学習保証を提供する。
本稿では,既存の最先端手法を著しく上回り,未学習ベンチマークにおける未学習誤差を最大93%削減する。
関連論文リスト
- Evaluating of Machine Unlearning: Robustness Verification Without Prior Modifications [15.257558809246524]
Unlearningは、事前トレーニングされたモデルが特定のトレーニングサンプルの影響を取り除くことができるプロセスである。
既存の検証方法は、メンバシップ推論攻撃(MIA)やバックドア攻撃のような機械学習攻撃技術に依存している。
本稿では,事前の修正を伴わない新しい検証手法を提案し,より大規模な検証を支援する。
論文 参考訳(メタデータ) (2024-10-14T03:19:14Z) - In-Context Unlearning: Language Models as Few Shot Unlearners [27.962361828354716]
我々は,Large Language Models (LLMs) のための新しいアンラーニング手法を提案する。
このメソッドは、モデルパラメータを更新することなく、コンテキスト内で特定の種類の入力を提供することで、モデルからインスタンスを解放する。
実験の結果、文脈内アンラーニングは、モデルパラメータへのアクセスを必要とする他の最先端の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2023-10-11T15:19:31Z) - Rigorous Assessment of Model Inference Accuracy using Language
Cardinality [5.584832154027001]
我々は,統計的推定を決定論的精度尺度に置き換えることで,モデル精度評価におけるバイアスと不確実性を最小化する体系的アプローチを開発する。
我々は、最先端の推論ツールによって推定されるモデルの精度を評価することによって、我々のアプローチの一貫性と適用性を実験的に実証した。
論文 参考訳(メタデータ) (2022-11-29T21:03:26Z) - Generalization Properties of Retrieval-based Models [50.35325326050263]
検索ベースの機械学習手法は、幅広い問題で成功をおさめた。
これらのモデルの約束を示す文献が増えているにもかかわらず、そのようなモデルの理論的基盤はいまだに解明されていない。
本稿では,その一般化能力を特徴付けるために,検索ベースモデルの形式的処理を行う。
論文 参考訳(メタデータ) (2022-10-06T00:33:01Z) - HyperImpute: Generalized Iterative Imputation with Automatic Model
Selection [77.86861638371926]
カラムワイズモデルを適応的かつ自動的に構成するための一般化反復計算フレームワークを提案する。
既製の学習者,シミュレータ,インターフェースを備えた具体的な実装を提供する。
論文 参考訳(メタデータ) (2022-06-15T19:10:35Z) - Predictive machine learning for prescriptive applications: a coupled
training-validating approach [77.34726150561087]
規範的応用のための予測機械学習モデルをトレーニングするための新しい手法を提案する。
このアプローチは、標準的なトレーニング検証テストスキームの検証ステップを微調整することに基づいている。
合成データを用いたいくつかの実験は、決定論的モデルと実モデルの両方において処方料コストを削減できる有望な結果を示した。
論文 参考訳(メタデータ) (2021-10-22T15:03:20Z) - Machine Unlearning of Features and Labels [72.81914952849334]
機械学習モデルにおけるアンラーニングとラベルのファーストシナリオを提案する。
提案手法は,影響関数の概念に基づいて,モデルパラメータのクローズドフォーム更新によるアンラーニングを実現する。
論文 参考訳(メタデータ) (2021-08-26T04:42:24Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Automatic Recall Machines: Internal Replay, Continual Learning and the
Brain [104.38824285741248]
ニューラルネットワークのリプレイには、記憶されたサンプルを使ってシーケンシャルなデータのトレーニングが含まれる。
本研究では,これらの補助サンプルをフライ時に生成する手法を提案する。
代わりに、評価されたモデル自体内の学習したサンプルの暗黙の記憶が利用されます。
論文 参考訳(メタデータ) (2020-06-22T15:07:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。