論文の概要: Causal Fuzzing for Verifying Machine Unlearning
- arxiv url: http://arxiv.org/abs/2509.16525v1
- Date: Sat, 20 Sep 2025 04:19:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-23 18:58:15.837341
- Title: Causal Fuzzing for Verifying Machine Unlearning
- Title(参考訳): 機械学習の検証のための因果ファズリング
- Authors: Anna Mazhar, Sainyam Galhotra,
- Abstract要約: CAF'Eは、ブラックボックスMLモデルの検証のために、データポイントとフィーチャーレベルのアンラーニングを統合する新しいフレームワークである。
評価の結果, CAF'Eは計算効率を保ちながら, ベースラインに欠落した残差を検出できた。
- 参考スコア(独自算出の注目度): 9.923981046985771
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As machine learning models become increasingly embedded in decision-making systems, the ability to "unlearn" targeted data or features is crucial for enhancing model adaptability, fairness, and privacy in models which involves expensive training. To effectively guide machine unlearning, a thorough testing is essential. Existing methods for verification of machine unlearning provide limited insights, often failing in scenarios where the influence is indirect. In this work, we propose CAF\'E, a new causality based framework that unifies datapoint- and feature-level unlearning for verification of black-box ML models. CAF\'E evaluates both direct and indirect effects of unlearning targets through causal dependencies, providing actionable insights with fine-grained analysis. Our evaluation across five datasets and three model architectures demonstrates that CAF\'E successfully detects residual influence missed by baselines while maintaining computational efficiency.
- Abstract(参考訳): マシンラーニングモデルが意思決定システムに組み込まれるようになるにつれ、高価なトレーニングを含むモデルにおいて、モデル適応性、公正性、プライバシを高めるために、ターゲットとするデータや機能を“未学習”する能力が不可欠になる。
マシンアンラーニングを効果的に導くためには、徹底的なテストが不可欠である。
マシン・アンラーニングの既存の検証方法は限られた洞察を与え、しばしば間接的な影響があるシナリオで失敗する。
本研究では,ブラックボックスMLモデルの検証のために,データポイントと特徴レベルのアンラーニングを統一する新たな因果性ベースのフレームワークであるCAF\'Eを提案する。
CAF\'Eは、因果依存性を通じて学習対象の直接的および間接的効果を評価し、きめ細かい分析で実行可能な洞察を提供する。
5つのデータセットと3つのモデルアーキテクチャで評価した結果、CAF\'Eは計算効率を保ちながらベースラインに欠落した残差を検出できた。
関連論文リスト
- Evaluating the Defense Potential of Machine Unlearning against Membership Inference Attacks [0.0]
メンバーシップ推論攻撃(MIA)は、モデルのトレーニングデータセットに特定のデータポイントが含まれているかどうかを敵が判断することを可能にする。
機械学習は本質的にMIA対策ではないものの、学習アルゴリズムとデータ特性はモデルの脆弱性に大きな影響を及ぼす可能性がある。
この研究は、機械学習とMIAの相互作用に関する重要な洞察を提供し、プライバシを保存する機械学習システムの設計のためのガイダンスを提供する。
論文 参考訳(メタデータ) (2025-08-22T07:19:33Z) - Efficient Machine Unlearning via Influence Approximation [75.31015485113993]
インフルエンサーベースのアンラーニングは、個別のトレーニングサンプルがモデルパラメータに与える影響を再トレーニングせずに推定する顕著なアプローチとして現れてきた。
本稿では,暗記(増分学習)と忘れ(未学習)の理論的関連性を確立する。
本稿では、インフルエンス近似アンラーニングアルゴリズムを導入し、インクリメンタルな視点から効率的なマシンアンラーニングを行う。
論文 参考訳(メタデータ) (2025-07-31T05:34:27Z) - RESTOR: Knowledge Recovery in Machine Unlearning [71.75834077528305]
Webスケールコーパスでトレーニングされた大規模な言語モデルは、プライベートまたはセンシティブな情報を含むことができる。
このようなデータポイントの効果を排除するために、いくつかの機械学習アルゴリズムが提案されている。
機械学習評価のためのRESTORフレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-31T20:54:35Z) - Learn while Unlearn: An Iterative Unlearning Framework for Generative Language Models [52.40798352740857]
3つのコアコンポーネントで構成されるICU(Iterative Contrastive Unlearning)フレームワークを紹介する。
知識未学習誘導モジュールは、未学習の損失を使用して、特定の知識を除去するためにターゲットとする。
Contrastive Learning Enhancementモジュールは、純粋な未学習の目標に対してモデルの表現力を保持する。
イテレーティブ・アンラーニング・リファインメントモジュールは、進行中の評価と更新を通じて、アンラーニングプロセスを動的に調整する。
論文 参考訳(メタデータ) (2024-07-25T07:09:35Z) - Silver Linings in the Shadows: Harnessing Membership Inference for Machine Unlearning [7.557226714828334]
ニューラルネットワークから特定のデータサンプルの影響を除去する新しい学習機構を提案する。
この目的を達成するために、我々は、ターゲットモデルの重みやアクティベーション値からプライバシーに敏感な情報を排除するための、新しい損失関数を構築した。
本研究の結果は,未学習の有効性とレイテンシ,および主課題の忠実度の観点から,我々のアプローチの優れた性能を示すものである。
論文 参考訳(メタデータ) (2024-07-01T00:20:26Z) - How Training Data Impacts Performance in Learning-based Control [67.7875109298865]
本稿では,トレーニングデータの密度と制御性能の関係を考察する。
データセットの品質尺度を定式化し、$rho$-gap と呼ぶ。
フィードバック線形化制御法に$rho$-gapを適用する方法を示す。
論文 参考訳(メタデータ) (2020-05-25T12:13:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。