論文の概要: COOkeD: Ensemble-based OOD detection in the era of zero-shot CLIP
- arxiv url: http://arxiv.org/abs/2507.22576v1
- Date: Wed, 30 Jul 2025 11:02:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-31 16:14:18.166117
- Title: COOkeD: Ensemble-based OOD detection in the era of zero-shot CLIP
- Title(参考訳): COOkeD: ゼロショットCLIP時代におけるアンサンブルベースのOOD検出
- Authors: Galadrielle Humblot-Renaux, Gianni Franchi, Sergio Escalera, Thomas B. Moeslund,
- Abstract要約: アウト・オブ・ディストリビューション(OOD)検出は、信頼できる画像認識システムにおいて重要なビルディングブロックである。
両端から少し開放感が与えられると、不均一なアンサンブルを生成することで、顕著なOOD検出が達成できることが示される。
CokeDは、古典的およびCLIPベースのOOD検出方法と比較して、最先端のパフォーマンスとロバスト性の向上を実現している。
- 参考スコア(独自算出の注目度): 47.84776775118222
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Out-of-distribution (OOD) detection is an important building block in trustworthy image recognition systems as unknown classes may arise at test-time. OOD detection methods typically revolve around a single classifier, leading to a split in the research field between the classical supervised setting (e.g. ResNet18 classifier trained on CIFAR100) vs. the zero-shot setting (class names fed as prompts to CLIP). In both cases, an overarching challenge is that the OOD detection performance is implicitly constrained by the classifier's capabilities on in-distribution (ID) data. In this work, we show that given a little open-mindedness from both ends, remarkable OOD detection can be achieved by instead creating a heterogeneous ensemble - COOkeD combines the predictions of a closed-world classifier trained end-to-end on a specific dataset, a zero-shot CLIP classifier, and a linear probe classifier trained on CLIP image features. While bulky at first sight, this approach is modular, post-hoc and leverages the availability of pre-trained VLMs, thus introduces little overhead compared to training a single standard classifier. We evaluate COOkeD on popular CIFAR100 and ImageNet benchmarks, but also consider more challenging, realistic settings ranging from training-time label noise, to test-time covariate shift, to zero-shot shift which has been previously overlooked. Despite its simplicity, COOkeD achieves state-of-the-art performance and greater robustness compared to both classical and CLIP-based OOD detection methods. Code is available at https://github.com/glhr/COOkeD
- Abstract(参考訳): オフ・オブ・ディストリビューション(OOD)検出は、テスト時に未知のクラスが発生する可能性があるため、信頼できる画像認識システムにおいて重要なビルディングブロックである。
OOD検出方法は通常、単一の分類器を中心に展開し、古典的な教師付き設定(例えばCIFAR100で訓練されたResNet18分類器)とゼロショット設定(CLIPのプロンプトとして提供されたクラス名)の間の研究領域を分割する。
どちらの場合も、OOD検出性能は、IDデータに対する分類器の能力によって暗黙的に制約される。
COOkeDは、特定のデータセット上で訓練されたクローズドワールド分類器、ゼロショットCLIP分類器、CLIP画像の特徴に基づいて訓練された線形プローブ分類器の予測を組み合わせる。
一見すると大きすぎるが、このアプローチはモジュラーでポストホックであり、事前訓練されたVLMの可用性を活用しているため、単一の標準分類器をトレーニングするよりもオーバーヘッドが少ない。
我々は、一般的なCIFAR100とImageNetベンチマークでCOOkeDを評価し、トレーニング時のラベルノイズからテスト時の共変量シフト、これまで見落とされたゼロショットシフトまで、より困難で現実的な設定についても検討した。
その単純さにもかかわらず、COOkeDは従来のCLIPベースのOOD検出方法と比較して、最先端のパフォーマンスと堅牢性を実現している。
コードはhttps://github.com/glhr/COOkeDで入手できる。
関連論文リスト
- Buffer-free Class-Incremental Learning with Out-of-Distribution Detection [18.706435793435094]
クラスインクリメンタルラーニング(CIL)は、オープンワールドシナリオにおいて大きな課題となる。
本稿では,ポストホックOOD検出手法の詳細な解析を行い,メモリバッファの必要性を解消する可能性について検討する。
このバッファフリー手法は,クラスインクリメンタル学習と未知サンプルの拒絶という両面において,バッファベースの手法と同等あるいは優れた性能が得られることを示す。
論文 参考訳(メタデータ) (2025-05-29T13:01:00Z) - Unseen No More: Unlocking the Potential of CLIP for Generative Zero-shot HOI Detection [6.4348035950413]
HOIGENと呼ばれるゼロショットHOI検出のためのCLIPを用いた第1世代モデルを提案する。
CLIPを注入した特徴発生器を人・物・組合の特徴の生成に応じて開発する。
HOIスコアを豊かにするために、ペアワイズHOI認識ブランチに生成プロトタイプバンクを構築し、画像ワイズHOI認識ブランチにマルチ知識プロトタイプバンクを構築した。
論文 参考訳(メタデータ) (2024-08-12T08:02:37Z) - Envisioning Outlier Exposure by Large Language Models for Out-of-Distribution Detection [71.93411099797308]
オープンワールドシナリオに機械学習モデルをデプロイする場合、アウト・オブ・ディストリビューション(OOD)サンプルは不可欠である。
本稿では,大規模言語モデル(LLM)の専門知識と推論能力を活用して,この制約に対処することを提案する。
EOEは、遠、近、きめ細かいOOD検出など、さまざまなタスクに一般化することができる。
EOEは様々なOODタスクで最先端のパフォーマンスを実現し、ImageNet-1Kデータセットに効果的にスケールできる。
論文 参考訳(メタデータ) (2024-06-02T17:09:48Z) - CLIPScope: Enhancing Zero-Shot OOD Detection with Bayesian Scoring [16.0716584170549]
ゼロショットOOD検出手法であるCLIPScopeを導入する。
CLIPScopeは、大きな語彙データベースからOODクラスをマイニングするための新しい戦略を取り入れている。
OODサンプルのカバレッジを最大化するために、CLIP埋め込み距離の観点から、最も多く、最もIDクラスに最も近いクラスラベルを選択する。
論文 参考訳(メタデータ) (2024-05-23T16:03:55Z) - Unified Classification and Rejection: A One-versus-All Framework [47.58109235690227]
我々は,オープンな集合分類器を構築するための統一的なフレームワークを構築した。
K の $-class 問題を $ K $ 1-versus-all (OVA) のバイナリ分類タスクに分解することにより、OVA 分類器のスコアを組み合わせることで、$ (K+1) の $-class rear 確率が得られることを示す。
一般的なOSRおよびOOD検出データセットの実験により、提案するフレームワークは、単一のマルチクラス分類器を使用して、競合性能を得ることを示した。
論文 参考訳(メタデータ) (2023-11-22T12:47:12Z) - CLIPood: Generalizing CLIP to Out-of-Distributions [73.86353105017076]
対照的に、CLIP(Language-image Pre-training)モデルでは、印象的なゼロショット能力を示しているが、下流タスクにおけるCLIPのさらなる適応は、OODのパフォーマンスを好ましくない劣化させる。
ドメインシフトとオープンクラスの両方が見えないテストデータ上で発生する可能性があるOOD状況にCLIPモデルを適用するための微調整手法であるCLIPoodを提案する。
さまざまなOODシナリオによるさまざまなデータセットの実験は、CLIPoodが既存の一般化テクニックを一貫して上回っていることを示している。
論文 参考訳(メタデータ) (2023-02-02T04:27:54Z) - No Fear of Heterogeneity: Classifier Calibration for Federated Learning
with Non-IID Data [78.69828864672978]
実世界のフェデレーションシステムにおける分類モデルのトレーニングにおける中心的な課題は、非IIDデータによる学習である。
このアルゴリズムは, 近似されたssian混合モデルからサンプリングした仮想表現を用いて分類器を調整する。
実験の結果,CIFAR-10,CIFAR-100,CINIC-10など,一般的なフェデレーション学習ベンチマークにおけるCCVRの現状が示された。
論文 参考訳(メタデータ) (2021-06-09T12:02:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。