論文の概要: ICONIC-444: A 3.1-Million-Image Dataset for OOD Detection Research
- arxiv url: http://arxiv.org/abs/2601.10802v1
- Date: Thu, 15 Jan 2026 19:05:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-19 20:21:50.26619
- Title: ICONIC-444: A 3.1-Million-Image Dataset for OOD Detection Research
- Title(参考訳): ICONIC-444:OOD検出のための3.1ミリ画像データセット
- Authors: Gerhard Krumpl, Henning Avenhaus, Horst Possegger,
- Abstract要約: ICONIC-444 ( Image Classification and OOD Detection with Numerous Intricate Complexities, OOD Detection with Numerous Intricate Complexities)は,OOD検出研究に適した444のクラスにまたがる3100万RGB以上の画像を含む,大規模産業用画像データセットである。
ICONIC-444は、工業用選別機で捕獲され、現実世界のタスクを忠実に模倣している。
ICONIC-444の4つの基準タスクを定義し、OOD検出研究のベンチマークと進歩を行い、22の最先端OOD検出手法のベースライン結果を提供する。
- 参考スコア(独自算出の注目度): 12.06155749281499
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Current progress in out-of-distribution (OOD) detection is limited by the lack of large, high-quality datasets with clearly defined OOD categories across varying difficulty levels (near- to far-OOD) that support both fine- and coarse-grained computer vision tasks. To address this limitation, we introduce ICONIC-444 (Image Classification and OOD Detection with Numerous Intricate Complexities), a specialized large-scale industrial image dataset containing over 3.1 million RGB images spanning 444 classes tailored for OOD detection research. Captured with a prototype industrial sorting machine, ICONIC-444 closely mimics real-world tasks. It complements existing datasets by offering structured, diverse data suited for rigorous OOD evaluation across a spectrum of task complexities. We define four reference tasks within ICONIC-444 to benchmark and advance OOD detection research and provide baseline results for 22 state-of-the-art post-hoc OOD detection methods.
- Abstract(参考訳): アウト・オブ・ディストリビューション(OOD)検出の現在の進歩は、細粒度と粗粒度のコンピュータビジョンタスクをサポートする様々な難易度(近距離から遠方まで)で明確に定義されたOODカテゴリを持つ大規模で高品質なデータセットの欠如によって制限されている。
ICONIC-444 ( Image Classification and OOD Detection with Numerous Intricate Complexities, OOD Detection with Numerous Intricate Complexities)は,OOD検出研究に適した444のクラスに3100万以上のRGB画像を含む,大規模産業用画像データセットである。
ICONIC-444は、工業用選別機で捕獲され、現実世界のタスクを忠実に模倣している。
タスクの複雑さの範囲で厳密なOOD評価に適した構造化された多様なデータを提供することで、既存のデータセットを補完する。
ICONIC-444の4つの基準タスクを定義し、OOD検出研究のベンチマークと進歩を行い、22の最先端OOD検出手法のベースライン結果を提供する。
関連論文リスト
- Can OOD Object Detectors Learn from Foundation Models? [56.03404530594071]
アウト・オブ・ディストリビューション(OOD)オブジェクト検出は、オープンセットのOODデータがないため、難しい課題である。
テキストから画像への生成モデルの最近の進歩に触発されて,大規模オープンセットデータを用いて訓練された生成モデルがOODサンプルを合成する可能性について検討した。
SyncOODは,大規模基盤モデルの能力を活用するシンプルなデータキュレーション手法である。
論文 参考訳(メタデータ) (2024-09-08T17:28:22Z) - TagOOD: A Novel Approach to Out-of-Distribution Detection via Vision-Language Representations and Class Center Learning [26.446233594630087]
視覚言語表現を用いたOOD検出のための新しいアプローチである textbfTagOOD を提案する。
TagOODは、抽出されたオブジェクトの特徴に基づいて軽量なネットワークをトレーニングし、代表的なクラスセンターを学習する。
これらの中心は、OOD検出における無関係な画像特徴の影響を最小限に抑え、INDオブジェクトクラスの中心的な傾向を捉えている。
論文 参考訳(メタデータ) (2024-08-28T06:37:59Z) - Negative Label Guided OOD Detection with Pretrained Vision-Language Models [96.67087734472912]
Out-of-distriion (OOD) は未知のクラスからサンプルを識別することを目的としている。
我々は,大規模なコーパスデータベースから大量の負のラベルを抽出する,NegLabelと呼ばれる新しいポストホックOOD検出手法を提案する。
論文 参考訳(メタデータ) (2024-03-29T09:19:52Z) - COOD: Combined out-of-distribution detection using multiple measures for
anomaly & novel class detection in large-scale hierarchical classification [0.0]
異常および新しいクラスであるOOD(High-perform Out-of-distribution)の検出は、分類モデルの実用上重要な前提条件である。
教師付きモデルを用いて,個々のOOD測度を1つの組み合わせOOD測度に組み合わせる枠組みを提案する。
以上の結果から,COODはTPR@1%のFPRにおいて,最先端のOOD対策を含む個人よりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2024-03-11T16:26:35Z) - In or Out? Fixing ImageNet Out-of-Distribution Detection Evaluation [43.865923770543205]
アウト・オブ・ディストリビューション(OOD)検出は、イン・ディストリビューション・タスクとは無関係な入力を識別する問題である。
現在使用されているテストOODデータセットの大部分は、オープンセット認識(OSR)文学からのデータセットを含む、深刻な問題を抱えている。
我々はNINCOに新しいテストOODデータセットを導入し、各サンプルをIDフリーにチェックし、OOD検出器の強度と障害モードの詳細な分析を可能にする。
論文 参考訳(メタデータ) (2023-06-01T15:48:10Z) - Improving Out-of-Distribution Detection with Disentangled Foreground and Background Features [23.266183020469065]
本稿では,IDトレーニングサンプルから前景と背景の特徴を密接な予測手法によって切り離す新しいフレームワークを提案する。
これは、様々な既存のOOD検出メソッドとシームレスに組み合わせられる汎用フレームワークである。
論文 参考訳(メタデータ) (2023-03-15T16:12:14Z) - Rethinking Out-of-distribution (OOD) Detection: Masked Image Modeling is
All You Need [52.88953913542445]
簡単な再構築手法を用いることで,OOD検出の性能が大幅に向上する可能性が示唆された。
我々は、OOD検出フレームワーク(MOOD)のプリテキストタスクとして、マスケ画像モデリング(Masked Image Modeling)を採用する。
論文 参考訳(メタデータ) (2023-02-06T08:24:41Z) - YolOOD: Utilizing Object Detection Concepts for Multi-Label
Out-of-Distribution Detection [25.68925703896601]
YolOODは、オブジェクト検出領域の概念を利用して、マルチラベル分類タスクでOOD検出を行う方法である。
提案手法を最先端のOOD検出手法と比較し,OODベンチマークデータセットの総合的なスイートにおいて,YolOODがこれらの手法より優れていることを示す。
論文 参考訳(メタデータ) (2022-12-05T07:52:08Z) - Triggering Failures: Out-Of-Distribution detection by learning from
local adversarial attacks in Semantic Segmentation [76.2621758731288]
セグメンテーションにおけるアウト・オブ・ディストリビューション(OOD)オブジェクトの検出に取り組む。
私たちの主な貢献は、ObsNetと呼ばれる新しいOOD検出アーキテクチャであり、ローカル・アタック(LAA)に基づく専用トレーニングスキームと関連付けられています。
3つの異なるデータセットの文献の最近の10つの手法と比較して,速度と精度の両面で最高の性能が得られることを示す。
論文 参考訳(メタデータ) (2021-08-03T17:09:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。