論文の概要: PartCo: Part-Level Correspondence Priors Enhance Category Discovery
- arxiv url: http://arxiv.org/abs/2509.22769v1
- Date: Fri, 26 Sep 2025 17:59:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:18.868915
- Title: PartCo: Part-Level Correspondence Priors Enhance Category Discovery
- Title(参考訳): パートCo:パートレベル対応はカテゴリー発見に先立ち
- Authors: Fernando Julio Cendra, Kai Han,
- Abstract要約: Generalized Category Discovery (GCD)は、ラベルなしデータ内の既知のカテゴリと新しいカテゴリの両方を識別することを目的としている。
PartCoは、部分レベルの視覚的特徴対応を取り入れてカテゴリ発見を強化する新しいフレームワークである。
複数のベンチマークデータセットに対する実験により、PartCoは現在のGCDアプローチの性能を大幅に改善することが示された。
- 参考スコア(独自算出の注目度): 60.37931246658181
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Generalized Category Discovery (GCD) aims to identify both known and novel categories within unlabeled data by leveraging a set of labeled examples from known categories. Existing GCD methods primarily depend on semantic labels and global image representations, often overlooking the detailed part-level cues that are crucial for distinguishing closely related categories. In this paper, we introduce PartCo, short for Part-Level Correspondence Prior, a novel framework that enhances category discovery by incorporating part-level visual feature correspondences. By leveraging part-level relationships, PartCo captures finer-grained semantic structures, enabling a more nuanced understanding of category relationships. Importantly, PartCo seamlessly integrates with existing GCD methods without requiring significant modifications. Our extensive experiments on multiple benchmark datasets demonstrate that PartCo significantly improves the performance of current GCD approaches, achieving state-of-the-art results by bridging the gap between semantic labels and part-level visual compositions, thereby setting new benchmarks for GCD. Project page: https://visual-ai.github.io/partco
- Abstract(参考訳): Generalized Category Discovery (GCD) は、既知のカテゴリからラベル付きサンプルのセットを活用することにより、ラベルなしデータ内の既知のカテゴリと新しいカテゴリの両方を識別することを目的としている。
既存のGCD法は主にセマンティックラベルとグローバルイメージ表現に依存しており、しばしば近縁なカテゴリを区別するのに不可欠な詳細部分レベルの手がかりを見落としている。
本稿では,パートレベルの視覚特徴対応を取り入れてカテゴリ発見を促進する新しいフレームワークであるPartCoを紹介する。
部分レベルの関係を活用することで、PartCoはよりきめ細かいセマンティック構造をキャプチャし、カテゴリ関係のより微妙な理解を可能にする。
重要なことは、PartCoは大幅な修正を必要とせず、既存のGCDメソッドとシームレスに統合する。
複数のベンチマークデータセットに対する広範な実験により、PartCoは現在のGCDアプローチの性能を大幅に改善し、セマンティックラベルと部分レベルのビジュアルコンポジションのギャップを埋め、GCDのための新しいベンチマークを設定することによって、最先端の成果が得られることを示した。
プロジェクトページ:https://visual-ai.github.io/partco
関連論文リスト
- Generalized Category Discovery in Event-Centric Contexts: Latent Pattern Mining with LLMs [34.06878654462158]
イベント中心のGCDは,長い複雑な物語と高度に不均衡なクラス分布を特徴とする。
クラスタクラスのアライメントを改善するためのイベントパターンの抽出と精巧化にLLMを活用するフレームワークであるPaMAを提案する。
新たに構築されたScam Reportデータセットを含む2つのEC-GCDベンチマークの評価は、PaMAが12.58%のHスコアゲインで先行メソッドより優れていることを示している。
論文 参考訳(メタデータ) (2025-05-29T10:02:04Z) - Contextuality Helps Representation Learning for Generalized Category Discovery [5.885208652383516]
本稿では、文脈性の概念を活用することにより、一般化カテゴリー発見(GCD)への新たなアプローチを提案する。
我々のモデルでは,コントラスト学習に最も近いコンテキストが使用されるインスタンスレベルと,コントラスト学習を利用するクラスタレベルという,2つのコンテキストレベルを統合している。
文脈情報の統合は、特徴学習を効果的に改善し、その結果、すべてのカテゴリの分類精度が向上する。
論文 参考訳(メタデータ) (2024-07-29T07:30:41Z) - Textual Knowledge Matters: Cross-Modality Co-Teaching for Generalized Visual Class Discovery [65.16724941038052]
Generalized Category Discovery (GCD)は、既知のカテゴリと未知のカテゴリの両方からラベルのないデータをクラスタすることを目的としている。
現在のGCD法は、新しい視覚カテゴリーを発見する際に、人間の認知過程の多様性知覚性を無視する視覚的手がかりのみに依存している。
マルチモーダルなGCDを実現するための2段階のTextGCDフレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-12T07:06:50Z) - CLIP-GCD: Simple Language Guided Generalized Category Discovery [21.778676607030253]
一般化カテゴリー発見(GCD)は、既知のカテゴリと未知のカテゴリをラベルのないデータで分類するモデルを必要とする。
従来の手法では、自己教師付き事前学習とラベル付きデータの教師付き微調整を併用し、続いて単純なクラスタリング手法を併用していた。
我々は2つの相補的な方法でマルチモーダル(ビジョンと言語)モデルを活用することを提案する。
論文 参考訳(メタデータ) (2023-05-17T17:55:33Z) - Dynamic Conceptional Contrastive Learning for Generalized Category
Discovery [76.82327473338734]
Generalized category discovery (GCD) は、部分的にラベル付けされたデータを自動でクラスタリングすることを目的としている。
ラベル付きデータには、ラベル付きデータの既知のカテゴリだけでなく、新しいカテゴリのインスタンスも含まれている。
GCDの効果的な方法の1つは、ラベルなしデータの識別表現を学習するために自己教師付き学習を適用することである。
本稿では,クラスタリングの精度を効果的に向上する動的概念コントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-30T14:04:39Z) - Open-world Semantic Segmentation via Contrasting and Clustering
Vision-Language Embedding [95.78002228538841]
本研究では,様々なオープンワールドカテゴリのセマンティックオブジェクトを高密度アノテーションを使わずにセマンティックオブジェクトのセマンティックオブジェクトのセマンティック化を学習するための,新しいオープンワールドセマンティックセマンティックセマンティックセマンティクスパイプラインを提案する。
提案手法は任意のカテゴリのオブジェクトを直接分割し、3つのベンチマークデータセット上でデータラベリングを必要とするゼロショットセグメンテーション法より優れている。
論文 参考訳(メタデータ) (2022-07-18T09:20:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。