論文の概要: A Systematic Analysis of Out-of-Distribution Detection Under Representation and Training Paradigm Shifts
- arxiv url: http://arxiv.org/abs/2511.11934v1
- Date: Fri, 14 Nov 2025 23:18:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:23.405737
- Title: A Systematic Analysis of Out-of-Distribution Detection Under Representation and Training Paradigm Shifts
- Title(参考訳): 表現・訓練パラダイムシフトによる分布外検出の系統的解析
- Authors: C. César Claros Olivares, Austin J. Brockmeier,
- Abstract要約: 本稿では,CLIP層間におけるアウト・オブ・ディストリビューション(OOD)検出手法の系統的比較について述べる。
実験では、スクラッチから訓練されたCNNと微調整された視覚変換器(ViT)の2つの表現パラダイムをカバーしている。
学習した特徴空間がOODの有効性を決定づけていることが判明した。
- 参考スコア(独自算出の注目度): 0.5156484100374058
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a systematic comparison of out-of-distribution (OOD) detection methods across CLIP-stratified regimes using AURC and AUGRC as primary metrics. Experiments cover two representation paradigms: CNNs trained from scratch and a fine-tuned Vision Transformer (ViT), evaluated on CIFAR-10/100, SuperCIFAR-100, and TinyImageNet. Using a multiple-comparison-controlled, rank-based pipeline (Friedman test with Conover-Holm post-hoc) and Bron-Kerbosch cliques, we find that the learned feature space largely determines OOD efficacy. For both CNNs and ViTs, probabilistic scores (e.g., MSR, GEN) dominate misclassification (ID) detection. Under stronger shifts, geometry-aware scores (e.g., NNGuide, fDBD, CTM) prevail on CNNs, whereas on ViTs GradNorm and KPCA Reconstruction Error remain consistently competitive. We further show a class-count-dependent trade-off for Monte-Carlo Dropout (MCD) and that a simple PCA projection improves several detectors. These results support a representation-centric view of OOD detection and provide statistically grounded guidance for method selection under distribution shift.
- Abstract(参考訳): 本稿では,AURC と AUGRC を主指標として,CLIP 階層化レシスタンスにおけるアウト・オブ・ディストリビューション (OOD) 検出手法の系統的比較を行った。
実験では、スクラッチからトレーニングされたCNNと、CIFAR-10/100、SuperCIFAR-100、TinyImageNetで評価された微調整されたビジョントランスフォーマー(ViT)の2つのパラダイムをカバーしている。
多重比較制御されたランクベースパイプライン(Friedman test with Conover-Holm post-hoc)とBron-Kerbosch cliquesを用いて、学習された特徴空間がOODの有効性を決定できることがわかった。
CNNとViTの両方では、確率的スコア(例えば、MSR、GEN)が誤分類(ID)の検出を支配している。
より強いシフトの下では、CNNでは幾何認識スコア(例えば、NNGuide、fDBD、CTM)が一般的であるが、ViTではGradNorm、KPCAコンストラクションエラーが一貫して競合している。
さらに、モンテカルロ・ドロップアウト(MCD)のクラス数依存トレードオフを示し、単純なPCAプロジェクションがいくつかの検出器を改善していることを示す。
これらの結果は、OOD検出の表現中心のビューをサポートし、分布シフト下でのメソッド選択のための統計的根拠付きガイダンスを提供する。
関連論文リスト
- AHDMIL: Asymmetric Hierarchical Distillation Multi-Instance Learning for Fast and Accurate Whole-Slide Image Classification [51.525891360380285]
AHDMILは非対称な階層的蒸留マルチインスタンス学習フレームワークである。
2段階のトレーニングプロセスを通じて、無関係なパッチを排除します。
分類性能と推論速度の両方において、従来の最先端手法を一貫して上回っている。
論文 参考訳(メタデータ) (2025-08-07T07:47:16Z) - Out-of-Distribution Detection with Relative Angles [30.417495930986536]
本稿では, 分布内構造に対して計算されるOOD検出のための新しい角度に基づく計量法を提案する。
提案手法は,9つのImageNet事前学習モデルを用いて評価する。
論文 参考訳(メタデータ) (2024-10-06T15:36:07Z) - Can Your Generative Model Detect Out-of-Distribution Covariate Shift? [2.0144831048903566]
条件付き正規化フロー(cNFs)を用いたOODセンサデータ検出のための新しい手法を提案する。
CIFAR10 対 CIFAR10-C と ImageNet200 対 ImageNet200-C では,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2024-09-04T19:27:56Z) - A Mixture of Exemplars Approach for Efficient Out-of-Distribution Detection with Foundation Models [0.0]
本稿では, 高品質で凍結, 事前訓練された基礎モデルを用いて, バックボーンをトレーニングする利点を最大化するためのOOD検出への効率的なアプローチを提案する。
MoLARは、OODサンプルの類似性と、データセットを表すために選択された小さなイメージの例を比較するだけで、強力なOOD検出性能を提供する。
論文 参考訳(メタデータ) (2023-11-28T06:12:28Z) - Boosting Out-of-Distribution Detection with Multiple Pre-trained Models [41.66566916581451]
事前訓練されたモデルを用いたポストホック検出は有望な性能を示し、大規模にスケールできる。
本稿では,事前訓練されたモデルの動物園から抽出した複数の検出決定をアンサンブルすることで,検出強化手法を提案する。
CIFAR10 と ImageNet のベンチマークでは, 相対性能を 65.40% と 26.96% で大幅に改善した。
論文 参考訳(メタデータ) (2022-12-24T12:11:38Z) - Partial and Asymmetric Contrastive Learning for Out-of-Distribution
Detection in Long-Tailed Recognition [80.07843757970923]
既存のOOD検出手法は,トレーニングセットが長距離分布している場合,大幅な性能劣化に悩まされていることを示す。
本稿では,部分的および非対称的な教師付きコントラスト学習(PASCL)を提案する。
我々の手法は従来の最先端の手法を1.29%$, $1.45%$, $0.69%$異常検出偽陽性率(FPR)と$3.24%$, 4,.06%$, 7,89%$in-distributionで上回ります。
論文 参考訳(メタデータ) (2022-07-04T01:53:07Z) - Calibrating Class Activation Maps for Long-Tailed Visual Recognition [60.77124328049557]
本稿では,CNNの長期分布からネットワーク学習を改善するための2つの効果的な修正を提案する。
まず,ネットワーク分類器の学習と予測を改善するために,CAMC (Class Activation Map) モジュールを提案する。
第2に,長期化問題における表現学習における正規化分類器の利用について検討する。
論文 参考訳(メタデータ) (2021-08-29T05:45:03Z) - No Fear of Heterogeneity: Classifier Calibration for Federated Learning
with Non-IID Data [78.69828864672978]
実世界のフェデレーションシステムにおける分類モデルのトレーニングにおける中心的な課題は、非IIDデータによる学習である。
このアルゴリズムは, 近似されたssian混合モデルからサンプリングした仮想表現を用いて分類器を調整する。
実験の結果,CIFAR-10,CIFAR-100,CINIC-10など,一般的なフェデレーション学習ベンチマークにおけるCCVRの現状が示された。
論文 参考訳(メタデータ) (2021-06-09T12:02:29Z) - Probabilistic Trust Intervals for Out of Distribution Detection [8.35564578781252]
本稿では,従来のパラメータを変更することなく,事前学習ネットワークにおけるOOD検出を向上する手法を提案する。
提案手法は,各ネットワーク重みに対する確率的信頼区間を定義し,分布内データを用いて決定する。
我々は,MNIST,Fashion-MNIST,CIFAR-10,CIFAR-100,CIFAR-10-Cについて検討した。
論文 参考訳(メタデータ) (2021-02-02T06:23:04Z) - PaDiM: a Patch Distribution Modeling Framework for Anomaly Detection and
Localization [64.39761523935613]
本稿では,画像中の異常を同時検出・ローカライズするPatch Distribution Modeling, PaDiMを提案する。
PaDiMは、パッチの埋め込みに事前訓練された畳み込みニューラルネットワーク(CNN)を使用している。
また、CNNの異なるセマンティックレベル間の相関を利用して、異常のローカライズも改善している。
論文 参考訳(メタデータ) (2020-11-17T17:29:18Z) - Anchor-free Small-scale Multispectral Pedestrian Detection [88.7497134369344]
適応型単一段アンカーフリーベースアーキテクチャにおける2つのモードの効果的かつ効率的な多重スペクトル融合法を提案する。
我々は,直接的境界ボックス予測ではなく,対象の中心と規模に基づく歩行者表現の学習を目指す。
その結果,小型歩行者の検出における本手法の有効性が示唆された。
論文 参考訳(メタデータ) (2020-08-19T13:13:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。