論文の概要: SG-OIF: A Stability-Guided Online Influence Framework for Reliable Vision Data
- arxiv url: http://arxiv.org/abs/2511.19466v1
- Date: Fri, 21 Nov 2025 19:58:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-26 17:37:04.008791
- Title: SG-OIF: A Stability-Guided Online Influence Framework for Reliable Vision Data
- Title(参考訳): SG-OIF:信頼性の高い視覚データのための安定誘導オンライン影響フレームワーク
- Authors: Penghao Rao, Runmin Jiang, Min Xu,
- Abstract要約: 本稿では,テスト予測に対するトレーニングポイントの影響を近似するための安定誘導オンライン影響フレームワーク(SG-OIF)を提案する。
CIFAR-10の上位1%の予測サンプルでは,SG-OIFが91.1%,MNISTの99.8%のAUPRスコアが得られた。
- 参考スコア(独自算出の注目度): 6.4391040754741296
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Approximating training-point influence on test predictions is critical for deploying deep-learning vision models, essential for locating noisy data. Though the influence function was proposed for attributing how infinitesimal up-weighting or removal of individual training examples affects model outputs, its implementation is still challenging in deep-learning vision models: inverse-curvature computations are expensive, and training non-stationarity invalidates static approximations. Prior works use iterative solvers and low-rank surrogates to reduce cost, but offline computation lags behind training dynamics, and missing confidence calibration yields fragile rankings that misidentify critical examples. To address these challenges, we introduce a Stability-Guided Online Influence Framework (SG-OIF), the first framework that treats algorithmic stability as a real-time controller, which (i) maintains lightweight anchor IHVPs via stochastic Richardson and preconditioned Neumann; (ii) proposes modular curvature backends to modulate per-example influence scores using stability-guided residual thresholds, anomaly gating, and confidence. Experimental results show that SG-OIF achieves SOTA (State-Of-The-Art) on noise-label and out-of-distribution detection tasks across multiple datasets with various corruption. Notably, our approach achieves 91.1\% accuracy in the top 1\% prediction samples on the CIFAR-10 (20\% asym), and gets 99.8\% AUPR score on MNIST, effectively demonstrating that this framework is a practical controller for online influence estimation.
- Abstract(参考訳): テスト予測に対するトレーニングポイントの影響の近似は、ノイズの多いデータを見つけるのに欠かせないディープラーニングビジョンモデルのデプロイに不可欠である。
この影響関数は、無限小のアップウェイトや個々のトレーニング例の削除がモデル出力にどのように影響するかを説明するために提案されているが、その実装はディープラーニングのビジョンモデルでは依然として困難である。
以前の作業では、反復的なソルバと低ランクのサロゲートを使用してコストを削減するが、トレーニングダイナミクスの遅れたオフラインの計算遅延や、信頼性の校正の欠如は、批判的な例を誤認する脆弱なランキングを生み出している。
これらの課題に対処するために、アルゴリズム安定性をリアルタイムコントローラとして扱う最初のフレームワークであるSG-OIF(Stable-Guided Online Influence Framework)を導入する。
i) 確率的リチャードソン及びプレコンディション付きノイマンを介して軽量アンカーIHVPを維持する。
(II) 安定誘導残差閾値, 異常ゲーティング, 信頼度を用いて, サンプルごとの影響度を変調するモジュラー曲率バックエンドを提案する。
実験結果から,SG-OIFは複数データセットにまたがるノイズラベルおよびアウト・オブ・ディストリビューション検出タスクにおいて,SOTA(State-Of-The-Art)を実現することがわかった。
特に,CIFAR-10 (20 % asym) の上位1 % の予測サンプルにおいて91.1 % の精度を達成し,MNIST 上で 99.8 % の AUPR スコアを得た。
関連論文リスト
- Contrastive Knowledge Transfer and Robust Optimization for Secure Alignment of Large Language Models [9.353236468990945]
本稿では,安全アライメントとロバストネスにおける大規模言語モデルの限界に対処する。
コントラスト蒸留とノイズロバストトレーニングを組み合わせた微調整法を提案する。
その結果,本手法は知識伝達,堅牢性,全体的な安全性において,既存のベースラインを著しく上回ることがわかった。
論文 参考訳(メタデータ) (2025-10-31T00:54:33Z) - MaP: A Unified Framework for Reliable Evaluation of Pre-training Dynamics [72.00014675808228]
大規模言語モデルの不安定性評価プロセスは、真の学習力学を曖昧にする。
textbfMaPは、アンダーラインMergingアンダーラインとアンダーラインPass@kメトリックを統合するフレームワークです。
実験により、MaPはよりスムーズな性能曲線を示し、ラン間分散を低減し、より一貫性のあるランキングを保証する。
論文 参考訳(メタデータ) (2025-10-10T11:40:27Z) - ResAD: Normalized Residual Trajectory Modeling for End-to-End Autonomous Driving [64.42138266293202]
ResADは正規化された残留軌道モデリングフレームワークである。
学習タスクを再編成し、慣性参照からの残留偏差を予測する。
NAVSIMベンチマークでは、ResADはバニラ拡散ポリシーを用いて最先端のPDMS 88.6を達成している。
論文 参考訳(メタデータ) (2025-10-09T17:59:36Z) - RoHOI: Robustness Benchmark for Human-Object Interaction Detection [84.78366452133514]
ヒューマン・オブジェクト・インタラクション(HOI)検出は、コンテキスト認識支援を可能にするロボット・ヒューマン・アシストに不可欠である。
HOI検出のための最初のベンチマークを導入し、様々な課題下でモデルのレジリエンスを評価する。
我々のベンチマークであるRoHOIは、HICO-DETとV-COCOデータセットに基づく20の汚職タイプと、新しいロバストネスにフォーカスしたメトリクスを含んでいる。
論文 参考訳(メタデータ) (2025-07-12T01:58:04Z) - Feature Statistics with Uncertainty Help Adversarial Robustness [19.01087281157066]
敵の攻撃は 特徴統計の分布を 変える傾向がある
頑健性向上のための不確実性駆動型特徴統計調整モジュールを提案する。
提案されたFSUモジュールは、トレーニング、アタック、予測、微調整に普遍的に適用可能である。
論文 参考訳(メタデータ) (2025-03-26T14:30:33Z) - A Conformal Approach to Feature-based Newsvendor under Model Misspecification [2.801095519296785]
共形予測にインスパイアされたモデルフリーで分散フリーなフレームワークを提案する。
ワシントンD.C.のCapital Bikeshareプログラムのシミュレーションデータと実世界のデータセットを用いて,我々のフレームワークを検証する。
論文 参考訳(メタデータ) (2024-12-17T18:34:43Z) - Impact of Noisy Supervision in Foundation Model Learning [91.56591923244943]
本論文は、事前学習データセットにおけるノイズの性質を包括的に理解し分析する最初の研究である。
雑音の悪影響を緩和し、一般化を改善するため、特徴空間に適応するチューニング法(NMTune)を提案する。
論文 参考訳(メタデータ) (2024-03-11T16:22:41Z) - Conservative Prediction via Data-Driven Confidence Minimization [70.93946578046003]
機械学習の安全性クリティカルな応用においては、モデルが保守的であることが望ましいことが多い。
本研究では,不確実性データセットに対する信頼性を最小化するデータ駆動信頼性最小化フレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-08T07:05:36Z) - Stabilizing and Improving Federated Learning with Non-IID Data and
Client Dropout [15.569507252445144]
ラベル分布スキューによるデータヘテロジェニーティは、フェデレート学習におけるモデル性能を制限する重要な障害であることが示されている。
クロスエントロピー損失を計算するための事前校正ソフトマックス関数を導入することで、シンプルで効果的なフレームワークを提案する。
非IIDデータとクライアントドロップアウトの存在下で、既存のベースラインよりも優れたモデル性能を示す。
論文 参考訳(メタデータ) (2023-03-11T05:17:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。