論文の概要: From Global to Local: Multi-scale Out-of-distribution Detection
- arxiv url: http://arxiv.org/abs/2308.10239v1
- Date: Sun, 20 Aug 2023 11:56:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-22 16:51:18.669044
- Title: From Global to Local: Multi-scale Out-of-distribution Detection
- Title(参考訳): グローバルからローカルへ:マルチスケール分散検出
- Authors: Ji Zhang, Lianli Gao, Bingguang Hao, Hao Huang, Jingkuan Song, Hengtao
Shen
- Abstract要約: アウト・オブ・ディストリビューション(OOD)検出は、イン・ディストリビューション(ID)トレーニングプロセス中にラベルが見られない未知のデータを検出することを目的としている。
近年の表現学習の進歩により,距離に基づくOOD検出がもたらされる。
グローバルな視覚情報と局所的な情報の両方を活用する第1のフレームワークであるマルチスケールOOD検出(MODE)を提案する。
- 参考スコア(独自算出の注目度): 129.37607313927458
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Out-of-distribution (OOD) detection aims to detect "unknown" data whose
labels have not been seen during the in-distribution (ID) training process.
Recent progress in representation learning gives rise to distance-based OOD
detection that recognizes inputs as ID/OOD according to their relative
distances to the training data of ID classes. Previous approaches calculate
pairwise distances relying only on global image representations, which can be
sub-optimal as the inevitable background clutter and intra-class variation may
drive image-level representations from the same ID class far apart in a given
representation space. In this work, we overcome this challenge by proposing
Multi-scale OOD DEtection (MODE), a first framework leveraging both global
visual information and local region details of images to maximally benefit OOD
detection. Specifically, we first find that existing models pretrained by
off-the-shelf cross-entropy or contrastive losses are incompetent to capture
valuable local representations for MODE, due to the scale-discrepancy between
the ID training and OOD detection processes. To mitigate this issue and
encourage locally discriminative representations in ID training, we propose
Attention-based Local PropAgation (ALPA), a trainable objective that exploits a
cross-attention mechanism to align and highlight the local regions of the
target objects for pairwise examples. During test-time OOD detection, a
Cross-Scale Decision (CSD) function is further devised on the most
discriminative multi-scale representations to distinguish ID/OOD data more
faithfully. We demonstrate the effectiveness and flexibility of MODE on several
benchmarks -- on average, MODE outperforms the previous state-of-the-art by up
to 19.24% in FPR, 2.77% in AUROC. Code is available at
https://github.com/JimZAI/MODE-OOD.
- Abstract(参考訳): out-of-distribution(ood)検出は、id(in-distribution)トレーニングプロセス中にラベルが見られていない"未知"データを検出することを目的としている。
近年の表現学習の進歩は,IDクラスの訓練データとの相対的距離に応じて,入力をID/OODとして認識する距離に基づくOOD検出がもたらされている。
従来のアプローチでは、大域的な画像表現のみに依存するペアワイズ距離を計算しており、これは避けられない背景クラッタとして最適であり、クラス内の変動は、与えられた表現空間において同じIDクラスから遠く離れたイメージレベル表現を駆動することができる。
本研究では,OOD検出の最大化のために,グローバルな視覚情報と画像の局所的な詳細の両方を活用する第1のフレームワークであるMODE(Multi-scale OOD Detectction)を提案する。
具体的には,既存のモデルが既往のクロスエントロピーや対照的な損失によって事前訓練されている場合,IDトレーニングとOOD検出プロセスのスケール差により,MODEの貴重な局所表現を捕捉できないことが最初に明らかになった。
この問題を緩和し,IDトレーニングにおける局所的な識別的表現を促進するために,対象対象の局所領域を相互に整列し強調するクロスアテンション機構を利用したトレーニング可能な目標である注意ベースローカルプロパゲーション(ALPA)を提案する。
テスト時間OOD検出において、ID/OODデータをより忠実に識別するために、最も識別性の高いマルチスケール表現に対して、クロススケール決定(CSD)関数がさらに考案される。
我々は、いくつかのベンチマークにおいて、MODEの有効性と柔軟性を実証する。平均して、MODEは、FPRで19.24%、AUROCで2.77%、過去の最先端よりも優れている。
コードはhttps://github.com/JimZAI/MODE-OOD.comで入手できる。
関連論文リスト
- What If the Input is Expanded in OOD Detection? [77.37433624869857]
Out-of-distriion (OOD) 検出は未知のクラスからのOOD入力を特定することを目的としている。
In-distriion(ID)データと区別するために,様々なスコアリング関数を提案する。
入力空間に異なる共通の汚職を用いるという、新しい視点を導入する。
論文 参考訳(メタデータ) (2024-10-24T06:47:28Z) - Representation Norm Amplification for Out-of-Distribution Detection in Long-Tail Learning [10.696635172502141]
提案手法はtextitRepresentation Norm Amplification (RNA) と呼ばれ, 分布外サンプルの検出の問題を解決する。
実験により、RNAは最先端の方法と比較してOODの検出と分類の両方において優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2024-08-20T09:27:07Z) - Out-of-Distribution Detection Using Peer-Class Generated by Large Language Model [0.0]
アウト・オブ・ディストリビューション(OOD)検出は、マシンラーニングモデルの信頼性とセキュリティを確保するための重要なタスクである。
本稿では,ODPCと呼ばれる新しい手法を提案し,大規模言語モデルを用いてOODピア・セマンティクスのクラスを生成する。
5つのベンチマークデータセットの実験により,提案手法は最先端の結果が得られることが示された。
論文 参考訳(メタデータ) (2024-03-20T06:04:05Z) - EAT: Towards Long-Tailed Out-of-Distribution Detection [55.380390767978554]
本稿では,長い尾を持つOOD検出の課題に対処する。
主な困難は、尾クラスに属するサンプルとOODデータを区別することである。
本稿では,(1)複数の禁制クラスを導入して分布内クラス空間を拡大すること,(2)コンテキストリッチなOODデータに画像をオーバーレイすることでコンテキスト限定のテールクラスを拡大すること,の2つの簡単な考え方を提案する。
論文 参考訳(メタデータ) (2023-12-14T13:47:13Z) - Generalized Open-World Semi-Supervised Object Detection [22.058195650206944]
本稿では, アンサンブルをベースとしたOODエクスプローラーと, 適応型半教師付きオブジェクト検出フレームワークを提案する。
提案手法は最先端のOOD検出アルゴリズムと競合し,IDクラスとOODクラスの両方の半教師付き学習性能を大幅に向上することを示した。
論文 参考訳(メタデータ) (2023-07-28T17:59:03Z) - Unleashing Mask: Explore the Intrinsic Out-of-Distribution Detection
Capability [70.72426887518517]
Out-of-Distribution(OOD)検出は、機械学習モデルを現実世界のアプリケーションにデプロイする際に、セキュアAIの必須の側面である。
本稿では,IDデータを用いた学習モデルのOOD識別能力を復元する新しい手法であるUnleashing Maskを提案する。
本手法では, マスクを用いて記憶した非定型サンプルを抽出し, モデルを微調整するか, 導入したマスクでプルーする。
論文 参考訳(メタデータ) (2023-06-06T14:23:34Z) - LoCoOp: Few-Shot Out-of-Distribution Detection via Prompt Learning [37.36999826208225]
本稿では,数発のアウト・オブ・ディストリビューション(OOD)検出のための新しい視覚言語プロンプト学習手法を提案する。
LoCoOpは、トレーニング中にCLIPローカル機能の一部をOOD機能として利用するOOD正規化を実行する。
LoCoOpは、既存のゼロショットと完全に教師付き検出方法より優れている。
論文 参考訳(メタデータ) (2023-06-02T06:33:08Z) - Breaking Down Out-of-Distribution Detection: Many Methods Based on OOD
Training Data Estimate a Combination of the Same Core Quantities [104.02531442035483]
本研究の目的は,OOD検出手法の暗黙的なスコアリング機能を識別すると同時に,共通の目的を認識することである。
内分布と外分布の2値差はOOD検出問題のいくつかの異なる定式化と等価であることを示す。
また, 外乱露光で使用される信頼損失は, 理論上最適のスコアリング関数と非自明な方法で異なる暗黙的なスコアリング関数を持つことを示した。
論文 参考訳(メタデータ) (2022-06-20T16:32:49Z) - Triggering Failures: Out-Of-Distribution detection by learning from
local adversarial attacks in Semantic Segmentation [76.2621758731288]
セグメンテーションにおけるアウト・オブ・ディストリビューション(OOD)オブジェクトの検出に取り組む。
私たちの主な貢献は、ObsNetと呼ばれる新しいOOD検出アーキテクチャであり、ローカル・アタック(LAA)に基づく専用トレーニングスキームと関連付けられています。
3つの異なるデータセットの文献の最近の10つの手法と比較して,速度と精度の両面で最高の性能が得られることを示す。
論文 参考訳(メタデータ) (2021-08-03T17:09:56Z) - OODformer: Out-Of-Distribution Detection Transformer [15.17006322500865]
現実世界の安全クリティカルなアプリケーションでは、新しいデータポイントがOODであるかどうかを認識することが重要です。
本稿では,OODformer というファースト・オブ・ザ・キンドな OOD 検出アーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-07-19T15:46:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。