論文の概要: A Systematic Comparison of Training Objectives for Out-of-Distribution Detection in Image Classification
- arxiv url: http://arxiv.org/abs/2603.07571v2
- Date: Wed, 11 Mar 2026 09:37:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-12 14:12:44.063891
- Title: A Systematic Comparison of Training Objectives for Out-of-Distribution Detection in Image Classification
- Title(参考訳): 画像分類におけるアウト・オブ・ディストリビューション検出のための訓練対象の体系的比較
- Authors: Furkan Genç, Onat Özdemir, Emre Akbaş,
- Abstract要約: クロスエントロピー損失、プロトタイプ損失、トリプルト損失、平均精度損失(AP損失)を比較した。
クロスエントロピーロスは、全体として最も一貫性のあるニア・アンド・ファー・OODパフォーマンスを提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Out-of-distribution (OOD) detection is critical in safety-sensitive applications. While this challenge has been addressed from various perspectives, the influence of training objectives on OOD behavior remains comparatively underexplored. In this paper, we present a systematic comparison of four widely used training objectives: Cross-Entropy Loss, Prototype Loss, Triplet Loss, and Average Precision (AP) Loss, spanning probabilistic, prototype-based, metric-learning, and ranking-based supervision, for OOD detection in image classification under standardized OpenOOD protocols. Across CIFAR-10/100 and ImageNet-200, we find that Cross-Entropy Loss, Prototype Loss, and AP Loss achieve comparable in-distribution accuracy, while Cross-Entropy Loss provides the most consistent near- and far-OOD performance overall; the other objectives can be competitive in specific settings.
- Abstract(参考訳): アウト・オブ・ディストリビューション(OOD)検出は、安全に敏感なアプリケーションにおいて重要である。
この課題は様々な観点から論じられているが、OOD行動に対する訓練目標の影響は比較的過小評価されている。
本稿では, クロスエントロピー損失, プロトタイプ損失, トリプルト損失, 平均精度(AP)損失, 確率的, プロトタイプベース, メトリックラーニング, ランキングベース監視の4つのトレーニング目標を, 標準化されたOpenOODプロトコルによる画像分類におけるOOD検出のための体系的に比較する。
CIFAR-10/100 と ImageNet-200 全体では、クロスエントロピー損失、プロトタイプ損失、AP損失が同等の分布精度を達成するのに対し、クロスエントロピー損失は総合的に最も一貫した近距離および遠距離性能を提供する。
関連論文リスト
- Continual Evidential Deep Learning for Out-of-Distribution Detection [20.846788009755183]
不確実性に基づくディープラーニングモデルは、正確で信頼性の高い予測を提供する能力に対して、大きな関心を集めている。
Evidential Deep Learningは、単一決定論的ニューラルネットワークによるアウト・オブ・ディストリビューション(OOD)データの検出において、優れたパフォーマンスを実現している。
本稿では,オブジェクト分類とOOD検出を同時に行うために,明らかなディープラーニング手法を連続的な学習フレームワークに統合することを提案する。
論文 参考訳(メタデータ) (2023-09-06T13:36:59Z) - Energy-based Out-of-Distribution Detection for Graph Neural Networks [76.0242218180483]
我々は,GNNSafeと呼ばれるグラフ上での学習のための,シンプルで強力で効率的なOOD検出モデルを提案する。
GNNSafeは、最先端技術に対するAUROCの改善を最大17.0%で達成しており、そのような未開発領域では単純だが強力なベースラインとして機能する可能性がある。
論文 参考訳(メタデータ) (2023-02-06T16:38:43Z) - Rethinking Out-of-distribution (OOD) Detection: Masked Image Modeling is
All You Need [52.88953913542445]
簡単な再構築手法を用いることで,OOD検出の性能が大幅に向上する可能性が示唆された。
我々は、OOD検出フレームワーク(MOOD)のプリテキストタスクとして、マスケ画像モデリング(Masked Image Modeling)を採用する。
論文 参考訳(メタデータ) (2023-02-06T08:24:41Z) - Breaking Down Out-of-Distribution Detection: Many Methods Based on OOD
Training Data Estimate a Combination of the Same Core Quantities [104.02531442035483]
本研究の目的は,OOD検出手法の暗黙的なスコアリング機能を識別すると同時に,共通の目的を認識することである。
内分布と外分布の2値差はOOD検出問題のいくつかの異なる定式化と等価であることを示す。
また, 外乱露光で使用される信頼損失は, 理論上最適のスコアリング関数と非自明な方法で異なる暗黙的なスコアリング関数を持つことを示した。
論文 参考訳(メタデータ) (2022-06-20T16:32:49Z) - Near out-of-distribution detection for low-resolution radar
micro-Doppler signatures [2.029924828197095]
Near-of-distriion Detection (OOD) は、分類に必要な監督なしに意味的に類似したデータポイントを識別することを目的としている。
本稿では、レーダー目標検出のためのOODのユースケースを、他の種類のセンサや検出シナリオに提示する。
論文 参考訳(メタデータ) (2022-05-12T08:27:14Z) - How to Exploit Hyperspherical Embeddings for Out-of-Distribution
Detection? [22.519572587827213]
CIDERは、OOD検出に超球面埋め込みを利用する表現学習フレームワークである。
CIDERは優れたパフォーマンスを確立し、FPR95では19.36%で最新のライバルを上回った。
論文 参考訳(メタデータ) (2022-03-08T23:44:01Z) - WOOD: Wasserstein-based Out-of-Distribution Detection [6.163329453024915]
ディープ・ニューラル・ネットワークに基づく分類器のトレーニングデータは、通常同じ分布からサンプリングされる。
トレーニングサンプルから遠く離れた分布からテストサンプルの一部を引き出すと、トレーニングされたニューラルネットワークはこれらのOODサンプルに対して高い信頼性の予測を行う傾向にある。
本稿では,これらの課題を克服するため,Wasserstein を用いたアウト・オブ・ディストリビューション検出(WOOD)手法を提案する。
論文 参考訳(メタデータ) (2021-12-13T02:35:15Z) - Triggering Failures: Out-Of-Distribution detection by learning from
local adversarial attacks in Semantic Segmentation [76.2621758731288]
セグメンテーションにおけるアウト・オブ・ディストリビューション(OOD)オブジェクトの検出に取り組む。
私たちの主な貢献は、ObsNetと呼ばれる新しいOOD検出アーキテクチャであり、ローカル・アタック(LAA)に基づく専用トレーニングスキームと関連付けられています。
3つの異なるデータセットの文献の最近の10つの手法と比較して,速度と精度の両面で最高の性能が得られることを示す。
論文 参考訳(メタデータ) (2021-08-03T17:09:56Z) - Robust Out-of-distribution Detection for Neural Networks [51.19164318924997]
既存の検出機構は, 分布内およびOOD入力の評価において, 極めて脆弱であることを示す。
ALOE と呼ばれる実効性のあるアルゴリズムを提案する。このアルゴリズムは,逆向きに構築された逆数と外数の両方の例にモデルを公開することにより,堅牢なトレーニングを行う。
論文 参考訳(メタデータ) (2020-03-21T17:46:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。