論文の概要: YolOOD: Utilizing Object Detection Concepts for Out-of-Distribution
Detection
- arxiv url: http://arxiv.org/abs/2212.02081v1
- Date: Mon, 5 Dec 2022 07:52:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-06 15:55:08.435208
- Title: YolOOD: Utilizing Object Detection Concepts for Out-of-Distribution
Detection
- Title(参考訳): yolood: 分散検出にオブジェクト検出概念を活用する
- Authors: Alon Zolfi, Guy Amit, Amit Baras, Satoru Koda, Ikuya Morikawa, Yuval
Elovici, Asaf Shabtai
- Abstract要約: アウト・オブ・ディストリビューション(OOD)検出は近年,機械学習研究コミュニティから大きな注目を集めている。
従来の研究のほとんどは、多クラス分類タスクにおけるOODサンプルの検出に重点を置いていた。
マルチラベル分類タスクにおいて,オブジェクト検出領域の概念を用いてOOD検出を行う方法であるYolOODを提案する。
- 参考スコア(独自算出の注目度): 39.87569094186621
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Out-of-distribution (OOD) detection has attracted a large amount of attention
from the machine learning research community in recent years due to its
importance in deployed systems. Most of the previous studies focused on the
detection of OOD samples in the multi-class classification task. However, OOD
detection in the multi-label classification task remains an underexplored
domain. In this research, we propose YolOOD - a method that utilizes concepts
from the object detection domain to perform OOD detection in the multi-label
classification task. Object detection models have an inherent ability to
distinguish between objects of interest (in-distribution) and irrelevant
objects (e.g., OOD objects) on images that contain multiple objects from
different categories. These abilities allow us to convert a regular object
detection model into an image classifier with inherent OOD detection
capabilities with just minor changes. We compare our approach to
state-of-the-art OOD detection methods and demonstrate YolOOD's ability to
outperform these methods on a comprehensive suite of in-distribution and OOD
benchmark datasets.
- Abstract(参考訳): アウト・オブ・ディストリビューション(OOD)検出は近年,デプロイシステムの重要性から,機械学習研究コミュニティから大きな注目を集めている。
従来の研究のほとんどは、多クラス分類タスクにおけるOODサンプルの検出に重点を置いていた。
しかし、マルチラベル分類タスクにおけるOOD検出は未探索領域のままである。
本研究では,オブジェクト検出領域の概念を利用して,複数ラベル分類タスクにおいてOOD検出を行うYolOODを提案する。
オブジェクト検出モデルは、異なるカテゴリの複数のオブジェクトを含む画像上の関心対象(分布内)と無関係対象(OODオブジェクトなど)を区別する固有の能力を持っている。
これらの能力により、通常のオブジェクト検出モデルを、小さな変更だけで固有のOOD検出機能を持つ画像分類器に変換することができる。
提案手法を最先端のOOD検出手法と比較し,OODベンチマークデータセットの総合的なスイートにおいて,YolOODがこれらの手法より優れていることを示す。
関連論文リスト
- Exploring Large Language Models for Multi-Modal Out-of-Distribution
Detection [67.68030805755679]
大きな言語モデル(LLM)は豊富な世界の知識をエンコードし、クラスごとに記述的な特徴を生成するよう促すことができる。
本稿では,LLMの選択的生成によるOOD検出性能向上のための世界知識の適用を提案する。
論文 参考訳(メタデータ) (2023-10-12T04:14:28Z) - From Global to Local: Multi-scale Out-of-distribution Detection [129.37607313927458]
アウト・オブ・ディストリビューション(OOD)検出は、イン・ディストリビューション(ID)トレーニングプロセス中にラベルが見られない未知のデータを検出することを目的としている。
近年の表現学習の進歩により,距離に基づくOOD検出がもたらされる。
グローバルな視覚情報と局所的な情報の両方を活用する第1のフレームワークであるマルチスケールOOD検出(MODE)を提案する。
論文 参考訳(メタデータ) (2023-08-20T11:56:25Z) - Detecting Out-of-distribution Objects Using Neuron Activation Patterns [0.0]
物体検出装置(NAPTRON)における分布外サンプル検出のためのニューロン活性化PaTteRnsを導入する。
提案手法は,ID(In-distribution)のパフォーマンスに影響を与えることなく,最先端の手法よりも優れている。
OODオブジェクト検出のための最大のオープンソースベンチマークを作成しました。
論文 参考訳(メタデータ) (2023-07-31T06:41:26Z) - General-Purpose Multi-Modal OOD Detection Framework [5.287829685181842]
アウト・オブ・ディストリビューション(OOD)検出は、機械学習(ML)システムの安全性と信頼性を保証するために重要なトレーニングデータとは異なるテストサンプルを特定する。
本稿では,2値分類器とコントラスト学習コンポーネントを組み合わせた,汎用的な弱教師付きOOD検出フレームワークWOODを提案する。
提案したWOODモデルを複数の実世界のデータセット上で評価し、実験結果により、WOODモデルがマルチモーダルOOD検出の最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-07-24T18:50:49Z) - Unleashing Mask: Explore the Intrinsic Out-of-Distribution Detection
Capability [70.72426887518517]
Out-of-Distribution(OOD)検出は、機械学習モデルを現実世界のアプリケーションにデプロイする際に、セキュアAIの必須の側面である。
本稿では,IDデータを用いた学習モデルのOOD識別能力を復元する新しい手法であるUnleashing Maskを提案する。
本手法では, マスクを用いて記憶した非定型サンプルを抽出し, モデルを微調整するか, 導入したマスクでプルーする。
論文 参考訳(メタデータ) (2023-06-06T14:23:34Z) - A Functional Data Perspective and Baseline On Multi-Layer
Out-of-Distribution Detection [30.499548939422194]
複数のレイヤを探索するメソッドには、特別なアーキテクチャか、それを行うための管理対象が必要です。
この研究は、様々なレイヤとそれらの統計的依存関係を通してサンプルの軌跡を利用するネットワークの機能的なビューに基づいた、オリジナルのアプローチを採用する。
提案手法の有効性を実証的に検証し,OOD検出におけるOOD検出の有効性をコンピュータビジョンベンチマーク上での最先端のベースラインと比較した。
論文 参考訳(メタデータ) (2023-06-06T09:14:05Z) - Background Matters: Enhancing Out-of-distribution Detection with Domain
Features [90.32910087103744]
OODサンプルは任意の分布から引き出すことができ、様々な次元における分布内(ID)データからの偏差を示す。
既存の方法は、ドメインの特徴のような他の次元を無視しながら、意味的特徴に基づいてOODサンプルを検出することに重点を置いている。
本稿では,IDトレーニングサンプルからドメインの特徴を高密度な予測手法により学習することのできる,新しい汎用フレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-15T16:12:14Z) - Rethinking Out-of-distribution (OOD) Detection: Masked Image Modeling is
All You Need [52.88953913542445]
簡単な再構築手法を用いることで,OOD検出の性能が大幅に向上する可能性が示唆された。
我々は、OOD検出フレームワーク(MOOD)のプリテキストタスクとして、マスケ画像モデリング(Masked Image Modeling)を採用する。
論文 参考訳(メタデータ) (2023-02-06T08:24:41Z) - Out-of-Distribution Detection for LiDAR-based 3D Object Detection [8.33476679218773]
3Dオブジェクト検出は、自動走行の重要な部分である。
ディープモデルは、高い信頼度スコアをアウト・オブ・ディストリビューション(OOD)入力に割り当てたことで知られる。
本稿では,LiDARを用いた3Dオブジェクト検出のためのOOD入力の検出に焦点をあてる。
論文 参考訳(メタデータ) (2022-09-28T21:39:25Z) - Triggering Failures: Out-Of-Distribution detection by learning from
local adversarial attacks in Semantic Segmentation [76.2621758731288]
セグメンテーションにおけるアウト・オブ・ディストリビューション(OOD)オブジェクトの検出に取り組む。
私たちの主な貢献は、ObsNetと呼ばれる新しいOOD検出アーキテクチャであり、ローカル・アタック(LAA)に基づく専用トレーニングスキームと関連付けられています。
3つの異なるデータセットの文献の最近の10つの手法と比較して,速度と精度の両面で最高の性能が得られることを示す。
論文 参考訳(メタデータ) (2021-08-03T17:09:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。