論文の概要: Unlearning Evaluation through Subset Statistical Independence
- arxiv url: http://arxiv.org/abs/2603.00587v1
- Date: Sat, 28 Feb 2026 10:36:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-03 19:50:56.277846
- Title: Unlearning Evaluation through Subset Statistical Independence
- Title(参考訳): サブセット統計独立による未学習評価
- Authors: Chenhao Zhang, Muxing Li, Feng Liu, Weitong Chen, Miao Xu,
- Abstract要約: ほとんどの未学習アルゴリズムは、トレーニングデータの小さなランダムなサブセットを除去する。
統計的独立性に基づくサブセットレベルの評価フレームワークを提案する。
本手法は,非学習と整合した簡易なスタンドアロン評価手法を提供する。
- 参考スコア(独自算出の注目度): 12.18235906179985
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Evaluating machine unlearning remains challenging, as existing methods typically require retraining reference models or performing membership inference attacks, both of which rely on prior access to training configuration or supervision labels, making them impractical in realistic scenarios. Motivated by the fact that most unlearning algorithms remove a small, random subset of the training data, we propose a subset-level evaluation framework based on statistical independence. Specifically, we design a tailored use of the Hilbert-Schmidt Independence Criterion to assess whether the model outputs on a given subset exhibit statistical dependence, without requiring model retraining or auxiliary classifiers. Our method provides a simple, standalone evaluation procedure that aligns with unlearning workflows. Extensive experiments demonstrate that our approach reliably distinguishes in-training from out-of-training subsets and clearly differentiates unlearning effectiveness, even when existing evaluations fall short.
- Abstract(参考訳): 既存の手法では、トレーニング設定や監督ラベルへの事前アクセスに依存しており、現実的なシナリオでは非現実的であるため、参照モデルの再トレーニングやメンバシップ推論アタックが必要になるため、マシンアンラーニングの評価は依然として難しいままである。
多くの未学習アルゴリズムがトレーニングデータの小さなランダムなサブセットを除去しているという事実に触発され、統計的独立性に基づくサブセットレベルの評価フレームワークを提案する。
具体的には、モデル再訓練や補助分類器を必要とせず、与えられたサブセット上のモデル出力が統計的依存を示すかどうかを評価するために、Hilbert-Schmidt Independence Criterionの調整された使用法を設計する。
本手法は,非学習ワークフローと整合した簡易なスタンドアロン評価手法を提供する。
大規模な実験では,既存の評価が不足している場合でも,トレーニング中のサブセットとトレーニング中のサブセットを確実に区別し,未学習の有効性を明確に区別する。
関連論文リスト
- Inference-time Unlearning Using Conformal Prediction [13.479885316485209]
Unlearningは、トレーニングされた機械学習モデルから、スクラッチからトレーニングすることなく、特定の情報を効率的に除去するプロセスである。
本稿では、モデルパラメータを更新することなく、検証者からのフィードバックを用いて、生成した応答の質を反復的に改善するフレームワークを提案する。
本稿では,既存の最先端手法を著しく上回り,未学習ベンチマークにおける未学習誤差を最大93%削減する。
論文 参考訳(メタデータ) (2026-02-03T17:46:50Z) - Forgetting Similar Samples: Can Machine Unlearning Do it Better? [35.26900233614191]
機械学習手法は主に,サンプルがモデルに与える影響を除去するのではなく,サンプルを除去することを目的としている。
トレーニングデータセットには、学習対象と同じようなサンプルが多数含まれている場合、既存の未学習スキームの有効性を評価する。
詳細な分析を行った4つの慎重に構築されたデータセットを用いて実験を行ったところ,既存の未学習手法の期待値と実際の性能との差が顕著であった。
論文 参考訳(メタデータ) (2026-01-11T14:55:57Z) - Reference-Specific Unlearning Metrics Can Hide the Truth: A Reality Check [60.77691669644931]
本研究では,非学習モデルと参照モデル間の分布類似度を測定する新しい尺度であるFADE(Functional Alignment for Distributional Equivalence)を提案する。
FADEは出力分布全体の機能的アライメントをキャプチャし、真の未学習の原則的評価を提供する。
これらの知見は、現在の評価実践における根本的なギャップを明らかにし、FADEが真に効果的な未学習手法を開発し評価するための、より堅牢な基盤を提供することを示した。
論文 参考訳(メタデータ) (2025-10-14T20:50:30Z) - Rectifying Privacy and Efficacy Measurements in Machine Unlearning: A New Inference Attack Perspective [42.003102851493885]
本稿では,不正確な未学習手法の評価において重要なギャップに対処するため,RULI (Rectified Unlearning Evaluation Framework via Likelihood Inference)を提案する。
RULIは、未学習の有効性とプライバシリスクをサンプルごとの粒度で測定するために、二重目的攻撃を導入している。
既存の手法で過小評価されているプライバシーリスクを暴露し,最先端のアンラーニング手法の重大な脆弱性を明らかにした。
論文 参考訳(メタデータ) (2025-06-16T00:30:02Z) - Are We Truly Forgetting? A Critical Re-examination of Machine Unlearning Evaluation Protocols [14.961054239793356]
本稿では,下流のタスククラスと意味的類似性を示すクラスを忘れる,厳密なアンラーニング評価手法を提案する。
われわれのベンチマークは、現実的な条件下での未学習アルゴリズム評価のための標準化されたプロトコルとして機能することを願っている。
論文 参考訳(メタデータ) (2025-03-10T07:11:34Z) - Model-free Methods for Event History Analysis and Efficient Adjustment (PhD Thesis) [55.2480439325792]
この論文は、モデルフリーの観点から統一された統計学への独立した貢献のシリーズである。
第1章では、機械学習から予測技術を活用する柔軟なメソッドを定式化するために、モデルフリーの視点をどのように利用できるか、詳しく説明している。
第2章では、あるプロセスの進化が他のプロセスに直接影響されるかどうかを記述した地域独立の概念を研究している。
論文 参考訳(メタデータ) (2025-02-11T19:24:09Z) - Evaluation of Seismic Artificial Intelligence with Uncertainty [0.0]
ディープラーニングモデル(DLM)の評価と比較のための評価フレームワークを開発する。
私たちのフレームワークは、実践者が自身の問題に対して最適なモデルを選択し、パフォーマンスの期待を定めるのに役立ちます。
論文 参考訳(メタデータ) (2025-01-15T16:45:51Z) - Towards Effective Evaluations and Comparisons for LLM Unlearning Methods [97.2995389188179]
本稿では,大規模言語モデルにおける機械学習評価の精度向上を図る。
評価指標の堅牢性と、競合する目標間のトレードオフという、2つの重要な課題に対処します。
論文 参考訳(メタデータ) (2024-06-13T14:41:00Z) - Distilled Datamodel with Reverse Gradient Matching [74.75248610868685]
オフライントレーニングとオンライン評価段階を含む,データ影響評価のための効率的なフレームワークを提案する。
提案手法は, 直接再学習法と比較して, プロセスの大幅な高速化を図りながら, 同等のモデル行動評価を実現する。
論文 参考訳(メタデータ) (2024-04-22T09:16:14Z) - Rethinking Classifier Re-Training in Long-Tailed Recognition: A Simple
Logits Retargeting Approach [102.0769560460338]
我々は,クラスごとのサンプル数に関する事前知識を必要とせず,シンプルなロジットアプローチ(LORT)を開発した。
提案手法は,CIFAR100-LT, ImageNet-LT, iNaturalist 2018など,様々な不均衡データセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2024-03-01T03:27:08Z) - Evaluating Disentanglement in Generative Models Without Knowledge of
Latent Factors [71.79984112148865]
本稿では,学習中に提示される学習力学に基づいて生成モデルのランキング付けを行う手法を提案する。
本手法は,近年の解離の理論的特徴から着想を得たものであり,その根底にある潜伏因子の監督は不要である。
論文 参考訳(メタデータ) (2022-10-04T17:27:29Z) - Automatic Recall Machines: Internal Replay, Continual Learning and the
Brain [104.38824285741248]
ニューラルネットワークのリプレイには、記憶されたサンプルを使ってシーケンシャルなデータのトレーニングが含まれる。
本研究では,これらの補助サンプルをフライ時に生成する手法を提案する。
代わりに、評価されたモデル自体内の学習したサンプルの暗黙の記憶が利用されます。
論文 参考訳(メタデータ) (2020-06-22T15:07:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。