論文の概要: ClusterMine: Robust Label-Free Visual Out-Of-Distribution Detection via Concept Mining from Text Corpora
- arxiv url: http://arxiv.org/abs/2511.07068v1
- Date: Mon, 10 Nov 2025 13:04:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-11 21:18:45.25713
- Title: ClusterMine: Robust Label-Free Visual Out-Of-Distribution Detection via Concept Mining from Text Corpora
- Title(参考訳): ClusterMine: テキストコーパスのコンセプトマイニングによるロバストラベルなしビジュアルアウトオフ配信検出
- Authors: Nikolas Adaloglou, Diana Petrusheva, Mohamed Asker, Felix Michels, Markus Kollmann,
- Abstract要約: ClusterMineは、正のラベルにアクセスせずに最先端のOOD検出性能を実現するための最初の方法である。
クラスタリングによって)視覚のみのサンプル一貫性とゼロショットのイメージテキスト一貫性を組み合わせることで、大きなテキストコーパスから肯定的な概念を抽出する。
- 参考スコア(独自算出の注目度): 0.9416970967424899
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large-scale visual out-of-distribution (OOD) detection has witnessed remarkable progress by leveraging vision-language models such as CLIP. However, a significant limitation of current methods is their reliance on a pre-defined set of in-distribution (ID) ground-truth label names (positives). These fixed label names can be unavailable, unreliable at scale, or become less relevant due to in-distribution shifts after deployment. Towards truly unsupervised OOD detection, we utilize widely available text corpora for positive label mining, bypassing the need for positives. In this paper, we utilize widely available text corpora for positive label mining under a general concept mining paradigm. Within this framework, we propose ClusterMine, a novel positive label mining method. ClusterMine is the first method to achieve state-of-the-art OOD detection performance without access to positive labels. It extracts positive concepts from a large text corpus by combining visual-only sample consistency (via clustering) and zero-shot image-text consistency. Our experimental study reveals that ClusterMine is scalable across a plethora of CLIP models and achieves state-of-the-art robustness to covariate in-distribution shifts. The code is available at https://github.com/HHU-MMBS/clustermine_wacv_official.
- Abstract(参考訳): 大規模視覚外分布検出(OOD)は、CLIPのような視覚言語モデルを活用することで、顕著な進歩をみせた。
しかし、現在の手法の顕著な制限は、事前に定義されたIn-distriion (ID) Ground-Truth label name ( positives) のセットに依存していることである。
これらの固定されたラベル名は、大規模に利用できない、信頼性が低い、あるいはデプロイ後の配布内シフトによって関連性が低下する可能性がある。
真に教師なしのOOD検出を目指して、正のラベルマイニングに広く利用可能なテキストコーパスを用いて、正の値の必要を回避した。
本稿では,一般的な概念マイニングパラダイムの下で,広く利用可能なテキストコーパスを正のラベルマイニングに活用する。
本稿では,新しい正のラベルマイニング手法であるClusterMineを提案する。
ClusterMineは、正のラベルにアクセスせずに最先端のOOD検出性能を実現する最初の方法である。
クラスタリングによって)視覚のみのサンプル一貫性とゼロショットのイメージテキスト一貫性を組み合わせることで、大きなテキストコーパスから肯定的な概念を抽出する。
実験の結果,ClusterMineは多数のCLIPモデルに対してスケーラブルであり,分散シフトを共分散するために最先端のロバスト性を実現することがわかった。
コードはhttps://github.com/HHU-MMBS/clustermine_wacv_officialで公開されている。
関連論文リスト
- COOD: Concept-based Zero-shot OOD Detection [12.361461338978732]
ゼロショットマルチラベルOOD検出フレームワークであるCOODを紹介する。
ラベルごとに肯定的概念と否定的概念の両方で意味空間を豊かにすることにより、我々のアプローチは複雑なラベル依存をモデル化する。
提案手法は既存のアプローチよりも優れており,VOCとデータセットの両方で平均95%のAUROCを実現している。
論文 参考訳(メタデータ) (2024-11-15T08:15:48Z) - Conjugated Semantic Pool Improves OOD Detection with Pre-trained Vision-Language Models [70.82728812001807]
ゼロショット・アウト・オブ・ディストリビューション(OOD)検出のための簡単なパイプラインでは、広範なセマンティックプールから潜在的OODラベルを選択する必要がある。
性能向上にはセマンティックプールの拡張が必要であると理論化します。
我々は,CSPによるOODラベル候補の拡大が要件を満たし,FPR95において既存の作品の7.89%を上回っていることを示す。
論文 参考訳(メタデータ) (2024-10-11T08:24:11Z) - Envisioning Outlier Exposure by Large Language Models for Out-of-Distribution Detection [71.93411099797308]
オープンワールドシナリオに機械学習モデルをデプロイする場合、アウト・オブ・ディストリビューション(OOD)サンプルは不可欠である。
本稿では,大規模言語モデル(LLM)の専門知識と推論能力を活用して,この制約に対処することを提案する。
EOEは、遠、近、きめ細かいOOD検出など、さまざまなタスクに一般化することができる。
EOEは様々なOODタスクで最先端のパフォーマンスを実現し、ImageNet-1Kデータセットに効果的にスケールできる。
論文 参考訳(メタデータ) (2024-06-02T17:09:48Z) - Negative Label Guided OOD Detection with Pretrained Vision-Language Models [96.67087734472912]
Out-of-distriion (OOD) は未知のクラスからサンプルを識別することを目的としている。
我々は,大規模なコーパスデータベースから大量の負のラベルを抽出する,NegLabelと呼ばれる新しいポストホックOOD検出手法を提案する。
論文 参考訳(メタデータ) (2024-03-29T09:19:52Z) - Towards Improved Illicit Node Detection with Positive-Unlabelled
Learning [5.879542875341689]
隠れ正のラベルに対するラベル機構の仮定と評価指標への影響について検討する。
潜在的な正のラベルを隠蔽するPU分類器は、通常の機械学習モデルと比較して性能が向上することを示した。
論文 参考訳(メタデータ) (2023-03-04T17:36:09Z) - Dist-PU: Positive-Unlabeled Learning from a Label Distribution
Perspective [89.5370481649529]
本稿では,PU学習のためのラベル分布視点を提案する。
そこで本研究では,予測型と基底型のラベル分布間のラベル分布の整合性を追求する。
提案手法の有効性を3つのベンチマークデータセットで検証した。
論文 参考訳(メタデータ) (2022-12-06T07:38:29Z) - Binary Classification with Positive Labeling Sources [71.37692084951355]
WEAPOは、負のラベル付け源を使わずにトレーニングラベルを作成するための、シンプルで競争力のあるWS手法である。
We show WEAPO achieve the highest averaged performance on 10 benchmark datasets。
論文 参考訳(メタデータ) (2022-08-02T19:32:08Z) - Positive Unlabeled Contrastive Learning [14.975173394072053]
自己教師型事前学習パラダイムを古典的正の未ラベル(PU)設定に拡張する。
PU固有のクラスタリング手法を用いて,ラベルのないサンプルを擬似ラベル付けする手法を開発した。
提案手法は,いくつかの標準PUベンチマークデータセットに対して,最先端のPU手法を手作業で上回っている。
論文 参考訳(メタデータ) (2022-06-01T20:16:32Z) - MASKER: Masked Keyword Regularization for Reliable Text Classification [73.90326322794803]
文脈に基づく予測を容易にする微調整手法であるマスク付きキーワード正規化(MASKER)を提案する。
maskerはモデルを規則化し、他の単語からキーワードを再構築し、十分な文脈なしに低信頼の予測を行う。
分類精度を低下させることなくOOD検出とクロスドメインの一般化を改善したMASKERを提案する。
論文 参考訳(メタデータ) (2020-12-17T04:54:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。