論文の概要: SELFOOD: Self-Supervised Out-Of-Distribution Detection via Learning to
Rank
- arxiv url: http://arxiv.org/abs/2305.14696v1
- Date: Wed, 24 May 2023 04:01:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-25 19:59:18.451817
- Title: SELFOOD: Self-Supervised Out-Of-Distribution Detection via Learning to
Rank
- Title(参考訳): SELFOOD: ランクへの学習による自己監視外分布検出
- Authors: Dheeraj Mekala, Adithya Samavedhi, Chengyu Dong, Jingbo Shang
- Abstract要約: SELFOOD は自己監督型 OOD 検出法であり, 自己管理型 OOD 検出法である。
本手法は粗い設定ときめ細かい設定の両方に有効であることを示す。
- 参考スコア(独自算出の注目度): 25.250541856300067
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep neural classifiers trained with cross-entropy loss (CE loss) often
suffer from poor calibration, necessitating the task of out-of-distribution
(OOD) detection. Traditional supervised OOD detection methods require expensive
manual annotation of in-distribution and OOD samples. To address the annotation
bottleneck, we introduce SELFOOD, a self-supervised OOD detection method that
requires only in-distribution samples as supervision. We cast OOD detection as
an inter-document intra-label (IDIL) ranking problem and train the classifier
with our pairwise ranking loss, referred to as IDIL loss. Specifically, given a
set of in-distribution documents and their labels, for each label, we train the
classifier to rank the softmax scores of documents belonging to that label to
be higher than the scores of documents that belong to other labels. Unlike CE
loss, our IDIL loss function reaches zero when the desired confidence ranking
is achieved and gradients are backpropagated to decrease probabilities
associated with incorrect labels rather than continuously increasing the
probability of the correct label. Extensive experiments with several
classifiers on multiple classification datasets demonstrate the effectiveness
of our method in both coarse- and fine-grained settings.
- Abstract(参考訳): クロスエントロピー損失(ce損失)で訓練された深層神経分類器は、しばしばキャリブレーション不足に苦しみ、od(out-of-distribution)検出のタスクを必要としている。
従来の監視型OOD検出法では、高額な手作業による分布内アノテーションとOODサンプルが必要である。
アノテーションのボトルネックに対処するために,自己管理型OOD検出手法であるSELFOODを導入する。
我々は,OOD検出を文書間ラベル間ランキング問題 (IDIL) として導入し,IDIL損失(IDIL損失)と呼ばれる2段階のランキング損失で分類器を訓練した。
具体的には,各ラベルに対して,そのラベルに属する文書のソフトマックススコアを,他のラベルに属する文書のスコアよりも上位にランク付けするよう,分類器を訓練する。
CE損失とは違って,我々のIDIL損失関数は,所望の信頼度ランキングが達成されたときにゼロに到達し,勾配が逆伝播することで,正しいラベルの確率を継続的に増加させるのではなく,誤ったラベルに関連する確率を減少させる。
複数の分類データセットの分類器を用いた大規模な実験は、粗い設定ときめ細かい設定の両方において、本手法の有効性を示す。
関連論文リスト
- Margin-bounded Confidence Scores for Out-of-Distribution Detection [2.373572816573706]
本稿では,非自明なOOD検出問題に対処するため,Margin bounded Confidence Scores (MaCS) と呼ばれる新しい手法を提案する。
MaCS は ID と OOD のスコアの差を拡大し、決定境界をよりコンパクトにする。
画像分類タスクのための様々なベンチマークデータセットの実験により,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2024-09-22T05:40:25Z) - When and How Does In-Distribution Label Help Out-of-Distribution Detection? [38.874518492468965]
本稿では,OOD検出におけるIDラベルの影響を理論的に説明するための公式な理解を提供する。
我々は,OODデータからのIDデータの分離性について,グラフ理論を用いて厳密に解析する。
我々は、シミュレーションと実データの両方に経験的な結果を示し、理論的保証を検証し、洞察を補強する。
論文 参考訳(メタデータ) (2024-05-28T22:34:53Z) - Ambiguity-Resistant Semi-Supervised Learning for Dense Object Detection [98.66771688028426]
本研究では,一段階検出器のためのAmbiguity-Resistant Semi-supervised Learning (ARSL)を提案する。
擬似ラベルの分類とローカライズ品質を定量化するために,JCE(Joint-Confidence Estimation)を提案する。
ARSLは、曖昧さを効果的に軽減し、MS COCOおよびPASCALVOC上で最先端のSSOD性能を達成する。
論文 参考訳(メタデータ) (2023-03-27T07:46:58Z) - Breaking Down Out-of-Distribution Detection: Many Methods Based on OOD
Training Data Estimate a Combination of the Same Core Quantities [104.02531442035483]
本研究の目的は,OOD検出手法の暗黙的なスコアリング機能を識別すると同時に,共通の目的を認識することである。
内分布と外分布の2値差はOOD検出問題のいくつかの異なる定式化と等価であることを示す。
また, 外乱露光で使用される信頼損失は, 理論上最適のスコアリング関数と非自明な方法で異なる暗黙的なスコアリング関数を持つことを示した。
論文 参考訳(メタデータ) (2022-06-20T16:32:49Z) - Rethinking Pseudo Labels for Semi-Supervised Object Detection [84.697097472401]
物体検出に適した確実な擬似ラベルを導入する。
我々は,クラス不均衡問題を緩和するために,各カテゴリの擬似ラベルと再重み付き損失関数を生成するために使用する閾値を動的に調整する。
提案手法では,COCOのラベル付きデータのみを用いて,教師付きベースラインを最大10%改善する。
論文 参考訳(メタデータ) (2021-06-01T01:32:03Z) - Disentangling Sampling and Labeling Bias for Learning in Large-Output
Spaces [64.23172847182109]
異なる負のサンプリングスキームが支配的ラベルと稀なラベルで暗黙的にトレードオフパフォーマンスを示す。
すべてのラベルのサブセットで作業することで生じるサンプリングバイアスと、ラベルの不均衡に起因するデータ固有のラベルバイアスの両方に明示的に対処する統一された手段を提供する。
論文 参考訳(メタデータ) (2021-05-12T15:40:13Z) - Exploiting Sample Uncertainty for Domain Adaptive Person
Re-Identification [137.9939571408506]
各サンプルに割り当てられた擬似ラベルの信頼性を推定・活用し,ノイズラベルの影響を緩和する。
不確実性に基づく最適化は大幅な改善をもたらし、ベンチマークデータセットにおける最先端のパフォーマンスを達成します。
論文 参考訳(メタデータ) (2020-12-16T04:09:04Z) - Learning with Out-of-Distribution Data for Audio Classification [60.48251022280506]
我々は,OODインスタンスを破棄するよりも,特定のOODインスタンスを検出・復号化することで,学習に肯定的な影響を及ぼすことを示す。
提案手法は,畳み込みニューラルネットワークの性能を著しく向上させる。
論文 参考訳(メタデータ) (2020-02-11T21:08:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。