論文の概要: Building One-class Detector for Anything: Open-vocabulary Zero-shot OOD
Detection Using Text-image Models
- arxiv url: http://arxiv.org/abs/2305.17207v1
- Date: Fri, 26 May 2023 18:58:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-30 21:23:06.866072
- Title: Building One-class Detector for Anything: Open-vocabulary Zero-shot OOD
Detection Using Text-image Models
- Title(参考訳): one-class detector for anything: テキスト画像モデルを用いたオープンボカブラリーゼロショットood検出
- Authors: Yunhao Ge, Jie Ren, Jiaping Zhao, Kaifeng Chen, Andrew Gallagher,
Laurent Itti, Balaji Lakshminarayanan
- Abstract要約: ゼロショット方式でテキスト画像事前学習モデルを利用する新しい1クラスオープンセットOOD検出器を提案する。
提案手法は,ドメイン内でないものを検出し,多様なOODを検出する柔軟性を提供する。
本手法は,すべてのベンチマークにおいて,従来の手法よりも優れた性能を示す。
- 参考スコア(独自算出の注目度): 23.302018871162186
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We focus on the challenge of out-of-distribution (OOD) detection in deep
learning models, a crucial aspect in ensuring reliability. Despite considerable
effort, the problem remains significantly challenging in deep learning models
due to their propensity to output over-confident predictions for OOD inputs. We
propose a novel one-class open-set OOD detector that leverages text-image
pre-trained models in a zero-shot fashion and incorporates various descriptions
of in-domain and OOD. Our approach is designed to detect anything not in-domain
and offers the flexibility to detect a wide variety of OOD, defined via fine-
or coarse-grained labels, or even in natural language. We evaluate our approach
on challenging benchmarks including large-scale datasets containing
fine-grained, semantically similar classes, distributionally shifted images,
and multi-object images containing a mixture of in-domain and OOD objects. Our
method shows superior performance over previous methods on all benchmarks. Code
is available at https://github.com/gyhandy/One-Class-Anything
- Abstract(参考訳): 信頼性を確保する上で重要な側面である深層学習モデルにおけるod(out-of-distribution)検出の課題に注目した。
かなりの努力にもかかわらず、OOD入力の過信予測を出力する傾向にあるため、ディープラーニングモデルでは大きな問題が残る。
ゼロショット方式でテキストイメージ事前学習モデルを活用し,ドメイン内およびOODの様々な記述を取り入れた新しい一クラスオープンセットOOD検出器を提案する。
提案手法は,ドメイン内にないものを検知し,粒度の粗いラベル,あるいは自然言語で定義した多種多様なOODを検出する柔軟性を提供する。
我々は,細粒度でセマンティックに類似したクラスを含む大規模データセット,分布にシフトした画像,ドメイン内とOODオブジェクトの混合を含むマルチオブジェクト画像を含む,挑戦的なベンチマークに対するアプローチを評価する。
本手法は,すべてのベンチマークにおいて従来の手法よりも優れた性能を示す。
コードはhttps://github.com/gyhandy/One-Class-Anythingで入手できる。
関連論文リスト
- A Bayesian Approach to OOD Robustness in Image Classification [20.104489420303306]
対象分類のためのOODロバストネスに対する新しいベイズ的アプローチを導入する。
我々は、CompNetsがvon Mises-Fisher(vMF)カーネルで表される特徴ベクトル上に定義された生成ヘッドを含んでいるという事実を活用する。
これにより、ソースとターゲットドメインの中間に位置するvMFカーネルの遷移辞書を学習することができる。
論文 参考訳(メタデータ) (2024-03-12T03:15:08Z) - NODI: Out-Of-Distribution Detection with Noise from Diffusion [45.68745522344308]
アウト・オブ・ディストリビューション(OOD)検出は、マシンラーニングモデルを安全にデプロイする上で重要な部分である。
従来の方法では、分布内データセットの限られた使用量でOODスコアを計算していた。
MAEベースのイメージエンコーダでパフォーマンスが3.5%向上した。
論文 参考訳(メタデータ) (2024-01-13T08:30:13Z) - EAT: Towards Long-Tailed Out-of-Distribution Detection [55.380390767978554]
本稿では,長い尾を持つOOD検出の課題に対処する。
主な困難は、尾クラスに属するサンプルとOODデータを区別することである。
本稿では,(1)複数の禁制クラスを導入して分布内クラス空間を拡大すること,(2)コンテキストリッチなOODデータに画像をオーバーレイすることでコンテキスト限定のテールクラスを拡大すること,の2つの簡単な考え方を提案する。
論文 参考訳(メタデータ) (2023-12-14T13:47:13Z) - Exploring Large Language Models for Multi-Modal Out-of-Distribution
Detection [67.68030805755679]
大きな言語モデル(LLM)は豊富な世界の知識をエンコードし、クラスごとに記述的な特徴を生成するよう促すことができる。
本稿では,LLMの選択的生成によるOOD検出性能向上のための世界知識の適用を提案する。
論文 参考訳(メタデータ) (2023-10-12T04:14:28Z) - From Global to Local: Multi-scale Out-of-distribution Detection [129.37607313927458]
アウト・オブ・ディストリビューション(OOD)検出は、イン・ディストリビューション(ID)トレーニングプロセス中にラベルが見られない未知のデータを検出することを目的としている。
近年の表現学習の進歩により,距離に基づくOOD検出がもたらされる。
グローバルな視覚情報と局所的な情報の両方を活用する第1のフレームワークであるマルチスケールOOD検出(MODE)を提案する。
論文 参考訳(メタデータ) (2023-08-20T11:56:25Z) - Unleashing Mask: Explore the Intrinsic Out-of-Distribution Detection
Capability [70.72426887518517]
Out-of-Distribution(OOD)検出は、機械学習モデルを現実世界のアプリケーションにデプロイする際に、セキュアAIの必須の側面である。
本稿では,IDデータを用いた学習モデルのOOD識別能力を復元する新しい手法であるUnleashing Maskを提案する。
本手法では, マスクを用いて記憶した非定型サンプルを抽出し, モデルを微調整するか, 導入したマスクでプルーする。
論文 参考訳(メタデータ) (2023-06-06T14:23:34Z) - Background Matters: Enhancing Out-of-distribution Detection with Domain
Features [90.32910087103744]
OODサンプルは任意の分布から引き出すことができ、様々な次元における分布内(ID)データからの偏差を示す。
既存の方法は、ドメインの特徴のような他の次元を無視しながら、意味的特徴に基づいてOODサンプルを検出することに重点を置いている。
本稿では,IDトレーニングサンプルからドメインの特徴を高密度な予測手法により学習することのできる,新しい汎用フレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-15T16:12:14Z) - A Simple Test-Time Method for Out-of-Distribution Detection [45.11199798139358]
本稿では,OOD検出のための簡易なテスト時間線形訓練法を提案する。
分布外である入力画像の確率は、ニューラルネットワークが抽出した特徴と驚くほど線形に相関していることがわかった。
本稿では,提案手法のオンライン版を提案し,実世界のアプリケーションでより実用的な性能を実現する。
論文 参考訳(メタデータ) (2022-07-17T16:02:58Z) - Triggering Failures: Out-Of-Distribution detection by learning from
local adversarial attacks in Semantic Segmentation [76.2621758731288]
セグメンテーションにおけるアウト・オブ・ディストリビューション(OOD)オブジェクトの検出に取り組む。
私たちの主な貢献は、ObsNetと呼ばれる新しいOOD検出アーキテクチャであり、ローカル・アタック(LAA)に基づく専用トレーニングスキームと関連付けられています。
3つの異なるデータセットの文献の最近の10つの手法と比較して,速度と精度の両面で最高の性能が得られることを示す。
論文 参考訳(メタデータ) (2021-08-03T17:09:56Z) - OODformer: Out-Of-Distribution Detection Transformer [15.17006322500865]
現実世界の安全クリティカルなアプリケーションでは、新しいデータポイントがOODであるかどうかを認識することが重要です。
本稿では,OODformer というファースト・オブ・ザ・キンドな OOD 検出アーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-07-19T15:46:38Z) - EARLIN: Early Out-of-Distribution Detection for Resource-efficient
Collaborative Inference [4.826988182025783]
協調推論により、リソース制約のあるエッジデバイスは、入力をサーバにアップロードすることで推論を行うことができる。
このセットアップは、成功した推論のためにコスト効率よく機能するが、モデルがトレーニングされていない入力サンプルに直面すると、非常にパフォーマンスが低下する。
我々は,事前訓練されたCNNモデルの浅い層から重要な特徴を抽出する,新しい軽量OOD検出手法を提案する。
論文 参考訳(メタデータ) (2021-06-25T18:43:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。