論文の概要: Natural Geometry of Robust Data Attribution: From Convex Models to Deep Networks
- arxiv url: http://arxiv.org/abs/2512.09103v1
- Date: Tue, 09 Dec 2025 20:40:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-11 15:14:53.313859
- Title: Natural Geometry of Robust Data Attribution: From Convex Models to Deep Networks
- Title(参考訳): ロバストデータ属性の自然幾何学:凸モデルから深部ネットワークへ
- Authors: Shihao Li, Jiachen Li, Dongmei Chen,
- Abstract要約: コンベックスモデルからディープネットワークへ拡張するロバスト属性の統一フレームワークを提案する。
凸設定では、検証可能なカバレッジ保証を備えたW-RIF(Wasserstein-Robust Influence Function)を導出する。
ディープネットワークでは、ユークリッド認証がスペクトル増幅によって空白化されることを実証する。
- 参考スコア(独自算出の注目度): 9.553350856191743
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Data attribution methods identify which training examples are responsible for a model's predictions, but their sensitivity to distributional perturbations undermines practical reliability. We present a unified framework for certified robust attribution that extends from convex models to deep networks. For convex settings, we derive Wasserstein-Robust Influence Functions (W-RIF) with provable coverage guarantees. For deep networks, we demonstrate that Euclidean certification is rendered vacuous by spectral amplification -- a mechanism where the inherent ill-conditioning of deep representations inflates Lipschitz bounds by over $10{,}000\times$. This explains why standard TRAK scores, while accurate point estimates, are geometrically fragile: naive Euclidean robustness analysis yields 0\% certification. Our key contribution is the Natural Wasserstein metric, which measures perturbations in the geometry induced by the model's own feature covariance. This eliminates spectral amplification, reducing worst-case sensitivity by $76\times$ and stabilizing attribution estimates. On CIFAR-10 with ResNet-18, Natural W-TRAK certifies 68.7\% of ranking pairs compared to 0\% for Euclidean baselines -- to our knowledge, the first non-vacuous certified bounds for neural network attribution. Furthermore, we prove that the Self-Influence term arising from our analysis equals the Lipschitz constant governing attribution stability, providing theoretical grounding for leverage-based anomaly detection. Empirically, Self-Influence achieves 0.970 AUROC for label noise detection, identifying 94.1\% of corrupted labels by examining just the top 20\% of training data.
- Abstract(参考訳): データ属性法は、モデルの予測にどのトレーニング例が原因であるかを識別するが、その分散摂動に対する感度は、実用的な信頼性を損なう。
コンベックスモデルからディープネットワークへ拡張可能な,信頼性の高いロバスト属性の統一フレームワークを提案する。
凸設定では、検証可能なカバレッジ保証を備えたW-RIF(Wasserstein-Robust Influence Function)を導出する。
ディープネットワークでは、ユークリッド認証はスペクトル増幅により空白化されることを実証する -- ディープ表現の固有の悪条件がリプシッツ境界を10$,000\times$で膨らませるメカニズムである。
このことは、標準のTRAKスコアが正確な点推定ではあるものの、幾何学的に脆弱である理由を説明している。
我々の重要な貢献は、モデル自身の特徴共分散によって誘導される幾何学における摂動を測定するナチュラル・ワッサーシュタイン計量である。
これによりスペクトル増幅が排除され、最悪の場合の感度が76\times$に低下し、属性推定が安定化される。
ResNet-18を使用したCIFAR-10では、Nature W-TRAKが、ユークリッドベースラインの0\%と比較して68.7%のランクペアを認定しています。
さらに,本分析から生じる自己影響項は,リプシッツ定数が帰属安定性を制御し,レバレッジに基づく異常検出の理論的根拠となることを証明した。
経験的に、Self-Influenceは、ラベルノイズ検出のための0.970 AUROCを達成し、トレーニングデータの上位20 %だけを調べることで、破損したラベルの94.1 %を識別する。
関連論文リスト
- BadCLIP++: Stealthy and Persistent Backdoors in Multimodal Contrastive Learning [73.46118996284888]
マルチモーダル・コントラスト学習モデルに対するバックドア攻撃の研究は、ステルスネスと永続性という2つの大きな課題に直面している。
両課題に対処する統合フレームワークであるBadCLIP++を提案する。
ステルスネスのために,タスク関連領域付近に知覚不可能なパターンを埋め込むセマンティックフュージョンQRマイクロトリガーを導入する。
持続性については、半径縮小とセントロイドアライメントによるトリガ埋め込みを安定化する。
論文 参考訳(メタデータ) (2026-02-19T08:31:16Z) - Behavioral Analytics for Continuous Insider Threat Detection in Zero-Trust Architectures [0.0]
このフレームワークでは、CERT Insider Threatデータセットをデータクリーニング、正規化、クラスバランスに使用しています。
また、次元減少のために主成分分析(PCA)も採用している。
SVM(90.1%)、ANN(94.7%)、ベイズネット(94.9)と比較して、AdaBoostは98.0%のACC、98.3%のPre、98.0%のREC、F1スコア(F1)で高いパフォーマンスを達成した。
論文 参考訳(メタデータ) (2026-01-10T22:30:19Z) - Latent Sculpting for Zero-Shot Generalization: A Manifold Learning Approach to Out-of-Distribution Anomaly Detection [2.8547732086436306]
教師付きディープラーニングの基本的限界は「一般化崩壊」である
階層型2段階表現学習フレームワークであるLatent Sculptingを提案する。
我々は「浸潤」のシナリオについて88.89%の検知率を報告した。
論文 参考訳(メタデータ) (2025-12-19T11:37:02Z) - The Eminence in Shadow: Exploiting Feature Boundary Ambiguity for Robust Backdoor Attacks [51.468144272905135]
深層ニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱なままでも重要なアプリケーションを支える。
バックドア攻撃を標的とした理論的解析を行い,不均質なモデル操作を実現するための疎い決定境界に着目した。
エミネンス(Eminence)は、理論的な保証と固有なステルス特性を持つ、説明可能で堅牢なブラックボックスバックドアフレームワークである。
論文 参考訳(メタデータ) (2025-12-11T08:09:07Z) - Geometric Calibration and Neutral Zones for Uncertainty-Aware Multi-Class Classification [0.0]
この研究は情報幾何学と統計的学習を橋渡しし、厳密な検証を必要とするアプリケーションにおいて不確実性を認識した分類の正式な保証を提供する。
アデノ関連ウイルスの分類に関する実証的な検証は、2段階のフレームワークが72.5%のエラーをキャプチャし、34.5%のサンプルを遅延させ、自動決定エラー率を16.8%から6.9%に下げていることを示している。
論文 参考訳(メタデータ) (2025-11-26T01:29:49Z) - CertDW: Towards Certified Dataset Ownership Verification via Conformal Prediction [48.82467166657901]
本稿では,最初の認証データセット透かし(CertDW)とCertDWベースの認証データセットオーナシップ検証手法を提案する。
共形予測に触発されて,主確率 (PP) と透かし頑健性 (WR) の2つの統計指標を導入する。
我々は、不審モデルのWR値が、透かしのないデータセットでトレーニングされた良性モデルのPP値を大幅に上回る場合に、PPとWRの間に証明可能な低い境界が存在することを証明した。
論文 参考訳(メタデータ) (2025-06-16T07:17:23Z) - TULiP: Test-time Uncertainty Estimation via Linearization and Weight Perturbation [11.334867025651233]
OOD検出のための理論駆動型不確実性推定器TULiPを提案する。
本手法では,収束前にネットワークに適用される仮説的摂動を考察する。
提案手法は,特に近分布試料について,最先端の性能を示す。
論文 参考訳(メタデータ) (2025-05-22T17:16:41Z) - Fully Heteroscedastic Count Regression with Deep Double Poisson Networks [6.976150282812484]
Deep Double Poisson Network (DDPN) はニューラル・離散カウント回帰モデルである。
DDPNはヘテロセダスティックガウスモデルと同様の頑健な回帰特性を示す。
多様なデータセットの実験では、DDPNが現在のベースラインを精度、キャリブレーション、アウト・オブ・ディストリビューション検出で上回っていることが示されている。
論文 参考訳(メタデータ) (2024-06-13T16:02:03Z) - Lazy Layers to Make Fine-Tuned Diffusion Models More Traceable [70.77600345240867]
新たな任意の任意配置(AIAO)戦略は、微調整による除去に耐性を持たせる。
拡散モデルの入力/出力空間のバックドアを設計する既存の手法とは異なり,本手法では,サンプルサブパスの特徴空間にバックドアを埋め込む方法を提案する。
MS-COCO,AFHQ,LSUN,CUB-200,DreamBoothの各データセットに関する実証研究により,AIAOの堅牢性が確認された。
論文 参考訳(メタデータ) (2024-05-01T12:03:39Z) - The Lipschitz-Variance-Margin Tradeoff for Enhanced Randomized Smoothing [85.85160896547698]
ディープニューラルネットワークの現実的な応用は、ノイズの多い入力や敵攻撃に直面した場合、その不安定な予測によって妨げられる。
入力にノイズ注入を頼りに、認証された半径を持つ効率的な分類器を設計する方法を示す。
新たな認証手法により、ランダムな平滑化による事前学習モデルの使用が可能となり、ゼロショット方式で現在の認証半径を効果的に改善できる。
論文 参考訳(メタデータ) (2023-09-28T22:41:47Z) - Getting a-Round Guarantees: Floating-Point Attacks on Certified Robustness [19.380453459873298]
敵の例は、わずかな入力摂動によって機械学習分類器の決定を変更できるため、セキュリティリスクを引き起こす。
これらの保証は、ラウンドエラーを引き起こす浮動小数点表現の制限により無効化可能であることを示す。
この攻撃は、正確な認証保証を持つ線形分類器や、保守的な認証を持つニューラルネットワークに対して実行可能であることを示す。
論文 参考訳(メタデータ) (2022-05-20T13:07:36Z) - Unlabelled Data Improves Bayesian Uncertainty Calibration under
Covariate Shift [100.52588638477862]
後続正則化に基づく近似ベイズ推定法を開発した。
前立腺癌の予後モデルを世界規模で導入する上で,本手法の有用性を実証する。
論文 参考訳(メタデータ) (2020-06-26T13:50:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。