論文の概要: TIE: A Training-Inversion-Exclusion Framework for Visually Interpretable and Uncertainty-Guided Out-of-Distribution Detection
- arxiv url: http://arxiv.org/abs/2512.00229v1
- Date: Fri, 28 Nov 2025 22:06:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-02 19:46:34.122305
- Title: TIE: A Training-Inversion-Exclusion Framework for Visually Interpretable and Uncertainty-Guided Out-of-Distribution Detection
- Title(参考訳): TIE:視覚的解釈と不確実性誘導によるアウト・オブ・ディストリビューション検出のためのトレーニング・インバージョン・エクスクルージョン・フレームワーク
- Authors: Pirzada Suhail, Rehna Afroz, Amit Sethi,
- Abstract要約: ディープニューラルネットワークは、入力がトレーニング経験外にあることを認識するのに苦労することが多い。
視覚的・不確実性誘導型異常検出のためのトレーニング--Inversion--Exclusion フレームワーク textbfTIE を提案する。
- 参考スコア(独自算出の注目度): 11.599035626374409
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep neural networks often struggle to recognize when an input lies outside their training experience, leading to unreliable and overconfident predictions. Building dependable machine learning systems therefore requires methods that can both estimate predictive \textit{uncertainty} and detect \textit{out-of-distribution (OOD)} samples in a unified manner. In this paper, we propose \textbf{TIE: a Training--Inversion--Exclusion} framework for visually interpretable and uncertainty-guided anomaly detection that jointly addresses these challenges through iterative refinement. TIE extends a standard $n$-class classifier to an $(n+1)$-class model by introducing a garbage class initialized with Gaussian noise to represent outlier inputs. Within each epoch, TIE performs a closed-loop process of \textit{training, inversion, and exclusion}, where highly uncertain inverted samples reconstructed from the just-trained classifier are excluded into the garbage class. Over successive iterations, the inverted samples transition from noisy artifacts into visually coherent class prototypes, providing transparent insight into how the model organizes its learned manifolds. During inference, TIE rejects OOD inputs by either directly mapping them to the garbage class or producing low-confidence, uncertain misclassifications within the in-distribution classes that are easily separable, all without relying on external OOD datasets. A comprehensive threshold-based evaluation using multiple OOD metrics and performance measures such as \textit{AUROC}, \textit{AUPR}, and \textit{FPR@95\%TPR} demonstrates that TIE offers a unified and interpretable framework for robust anomaly detection and calibrated uncertainty estimation (UE) achieving near-perfect OOD detection with \textbf{\(\!\approx\!\) 0 FPR@95\%TPR} when trained on MNIST or FashionMNIST and tested against diverse unseen datasets.
- Abstract(参考訳): ディープニューラルネットワークは、入力がトレーニング経験外にあることを認識するのに苦労することが多い。
したがって、信頼できる機械学習システムを構築するには、予測的 \textit{uncertainty} を推定し、統一された方法で \textit{out-of-distribution (OOD) サンプルを検出する方法が必要である。
本稿では,これらの課題に反復的改善を通じて協調的に対処する視覚的・不確実性誘導型異常検出のためのトレーニング---Inversion--Exclusion}フレームワークであるtextbf{TIEを提案する。
TIEは、標準の$n$クラス分類器を$(n+1)$クラスモデルに拡張し、ガウスノイズで初期化されたガベージクラスを導入して、アウトリー入力を表現する。
各エポック内では、TIE は \textit{training, inversion, exclusion} の閉ループプロセスを実行する。
連続的な反復において、逆サンプルはノイズのあるアーティファクトから視覚的に一貫性のあるクラスプロトタイプへと遷移し、モデルがどのように学習多様体を編成するかについて透過的な洞察を与える。
推論中、TIEはOOD入力を、直接ガベージクラスにマッピングするか、あるいは、外部のOODデータセットに頼ることなく、容易に分離可能な配布クラス内の不確実な誤分類を生成することによって拒否する。
複数のOOD測定値と性能測定値を用いた総合的しきい値に基づく評価は、TIEが頑健な異常検出と校正不確実性推定(UE)のための統一かつ解釈可能なフレームワークを提供し、 \textbf{\(\!)でほぼ完璧なOOD検出を実現することを実証している。
\approx\!
0 FPR@95\%TPR} MNISTまたはFashionMNISTでトレーニングし、さまざまな未知のデータセットに対してテストする。
関連論文リスト
- Reference-Specific Unlearning Metrics Can Hide the Truth: A Reality Check [60.77691669644931]
本研究では,非学習モデルと参照モデル間の分布類似度を測定する新しい尺度であるFADE(Functional Alignment for Distributional Equivalence)を提案する。
FADEは出力分布全体の機能的アライメントをキャプチャし、真の未学習の原則的評価を提供する。
これらの知見は、現在の評価実践における根本的なギャップを明らかにし、FADEが真に効果的な未学習手法を開発し評価するための、より堅牢な基盤を提供することを示した。
論文 参考訳(メタデータ) (2025-10-14T20:50:30Z) - Mysteries of the Deep: Role of Intermediate Representations in Out of Distribution Detection [0.0]
大きな事前学習されたモデルをモノリシックエンコーダとして扱い、検出のために最終層表現にのみ依存する。
入力プロジェクションを微妙に変換する残差接続によって形成される事前学習モデルのテキスト中間層を明らかにする。
我々は、これらの中間表現を選択的に組み込むことで、OOD検出の精度を、遠方OODでは textbf$10%、近方OODでは textbf$7% まで向上させることができることを示した。
論文 参考訳(メタデータ) (2025-10-07T10:55:47Z) - Human Texts Are Outliers: Detecting LLM-generated Texts via Out-of-distribution Detection [71.59834293521074]
我々は,人間によるテキストと機械によるテキストを区別する枠組みを開発した。
提案手法は,DeepFakeデータセット上で98.3%のAUROCとAUPRを8.9%のFPR95で達成する。
コード、事前トレーニングされたウェイト、デモがリリースされる。
論文 参考訳(メタデータ) (2025-10-07T08:14:45Z) - Network Inversion for Uncertainty-Aware Out-of-Distribution Detection [2.6733991338938026]
アウト・オブ・ディストリビューション(OOD)検出と不確実性推定は、安全な機械学習システムを構築する上で重要な要素である。
OOD検出と不確実性推定の両方に対処するために,ネットワークインバージョンと分類器学習を組み合わせた新しいフレームワークを提案する。
我々のアプローチはスケーラブルで解釈可能であり、外部のOODデータセットやポストホックキャリブレーション技術へのアクセスを必要としない。
論文 参考訳(メタデータ) (2025-05-29T13:53:52Z) - Downstream-Pretext Domain Knowledge Traceback for Active Learning [138.02530777915362]
本稿では、下流知識と事前学習指導のデータ相互作用をトレースするダウンストリーム・プレテキスト・ドメイン知識トレース(DOKT)手法を提案する。
DOKTは、トレースバックの多様性指標とドメインベースの不確実性推定器から構成される。
10のデータセットで行った実験は、我々のモデルが他の最先端の手法よりも優れていることを示している。
論文 参考訳(メタデータ) (2024-07-20T01:34:13Z) - Noisy Correspondence Learning with Self-Reinforcing Errors Mitigation [63.180725016463974]
クロスモーダル検索は、実際は精力的な、十分に整合した大規模データセットに依存している。
我々は、新しい雑音対応学習フレームワーク、textbfSelf-textbfReinforcing textbfErrors textbfMitigation(SREM)を導入する。
論文 参考訳(メタデータ) (2023-12-27T09:03:43Z) - How adversarial attacks can disrupt seemingly stable accurate classifiers [76.95145661711514]
敵攻撃は、入力データに不連続な修正を加えることで、非正確な学習システムの出力を劇的に変化させる。
ここでは,これは高次元入力データを扱う分類器の基本的特徴であると考えられる。
実用システムで観測される重要な振る舞いを高い確率で発生させる、単純で汎用的なフレームワークを導入する。
論文 参考訳(メタデータ) (2023-09-07T12:02:00Z) - Self-Supervised Graph Transformer for Deepfake Detection [1.8133635752982105]
ディープフェイク検出手法は、与えられたデータセット内の偽造を認識できる有望な結果を示している。
ディープフェイク検出システムは、一般的な検出性能を保証するために、偽造タイプ、外観、品質に欠かせないままでいなければならない。
本研究では、自己教師付き事前学習モデルを利用して、例外的な一般化能力を実現するディープフェイク検出フレームワークを提案する。
論文 参考訳(メタデータ) (2023-07-27T17:22:41Z) - Learn what you can't learn: Regularized Ensembles for Transductive
Out-of-distribution Detection [76.39067237772286]
ニューラルネットワークの現在のアウト・オブ・ディストリビューション(OOD)検出アルゴリズムは,様々なOOD検出シナリオにおいて不満足な結果をもたらすことを示す。
本稿では,テストデータのバッチを観察した後に検出方法を調整することで,このような「ハード」なOODシナリオがいかに有用かを検討する。
本稿では,テストデータと正規化に人工ラベリング手法を用いて,テストバッチ内のOODサンプルに対してのみ矛盾予測を生成するモデルのアンサンブルを求める手法を提案する。
論文 参考訳(メタデータ) (2020-12-10T16:55:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。