論文の概要: MOS: Modeling Object-Scene Associations in Generalized Category Discovery
- arxiv url: http://arxiv.org/abs/2503.12035v1
- Date: Sat, 15 Mar 2025 07:59:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-18 12:31:35.130915
- Title: MOS: Modeling Object-Scene Associations in Generalized Category Discovery
- Title(参考訳): MOS:一般カテゴリー発見におけるオブジェクトシーンアソシエーションのモデル化
- Authors: Zhengyuan Peng, Jinpeng Ma, Zhimin Sun, Ran Yi, Haichuan Song, Xin Tan, Lizhuang Ma,
- Abstract要約: Generalized Category Discovery (GCD) は、ベースクラスと新規クラスの両方をラベルのない画像で分類することを目的とした分類タスクである。
これまでの研究では、シーン情報を見落としたり、ノイズとして扱うことで、モデルトレーニング時の影響を低減していた。
我々は、シーン情報の誤解釈を、GCDに固有の曖昧性チャレンジ(Ambiguity Challenge)という重要な要因とみなす。
- 参考スコア(独自算出の注目度): 42.13724611779979
- License:
- Abstract: Generalized Category Discovery (GCD) is a classification task that aims to classify both base and novel classes in unlabeled images, using knowledge from a labeled dataset. In GCD, previous research overlooks scene information or treats it as noise, reducing its impact during model training. However, in this paper, we argue that scene information should be viewed as a strong prior for inferring novel classes. We attribute the misinterpretation of scene information to a key factor: the Ambiguity Challenge inherent in GCD. Specifically, novel objects in base scenes might be wrongly classified into base categories, while base objects in novel scenes might be mistakenly recognized as novel categories. Once the ambiguity challenge is addressed, scene information can reach its full potential, significantly enhancing the performance of GCD models. To more effectively leverage scene information, we propose the Modeling Object-Scene Associations (MOS) framework, which utilizes a simple MLP-based scene-awareness module to enhance GCD performance. It achieves an exceptional average accuracy improvement of 4% on the challenging fine-grained datasets compared to state-of-the-art methods, emphasizing its superior performance in fine-grained GCD. The code is publicly available at https://github.com/JethroPeng/MOS.
- Abstract(参考訳): Generalized Category Discovery (GCD)は、ラベル付きデータセットからの知識を用いて、ベースクラスと新規クラスの両方をラベル付き画像に分類することを目的とした分類タスクである。
GCDでは、過去の研究ではシーン情報を見落とし、ノイズとして扱うことで、モデルトレーニング時の影響を低減していた。
しかし,本稿では,シーン情報を新しいクラスを推論する上で,より優れた事前情報とみなすべきであると論じている。
我々は、シーン情報の誤解釈を、GCDに固有の曖昧性チャレンジ(Ambiguity Challenge)という重要な要因とみなす。
具体的には、ベースシーンの新規なオブジェクトを誤ってベースカテゴリに分類し、新規なシーンの新規なオブジェクトを誤って新しいカテゴリに分類する。
曖昧性の問題に対処すると、シーン情報はその潜在能力を最大限に発揮し、GCDモデルの性能を大幅に向上させることができる。
シーン情報をより効果的に活用するために,シンプルなMLPベースのシーン認識モジュールを用いてGCD性能を向上させるモデリングオブジェクトシーンアソシエーション(MOS)フレームワークを提案する。
最先端の手法と比較して、難解な細粒度データセットでは4%の精度向上を実現し、細粒度GCDにおける優れた性能を強調した。
コードはhttps://github.com/JethroPeng/MOSで公開されている。
関連論文リスト
- Happy: A Debiased Learning Framework for Continual Generalized Category Discovery [54.54153155039062]
本稿では,C-GCD(Continuous Generalized Category Discovery)の未探索課題について考察する。
C-GCDは、学習済みのクラスを認識する能力を維持しながら、ラベルのないデータから新しいクラスを漸進的に発見することを目的としている。
本稿では,ハードネスを意識したプロトタイプサンプリングとソフトエントロピー正規化を特徴とする,偏りのある学習フレームワークであるHappyを紹介する。
論文 参考訳(メタデータ) (2024-10-09T04:18:51Z) - No Representation Rules Them All in Category Discovery [115.53747187400626]
一般化カテゴリー発見(GCD)の課題に取り組む
ラベル付きおよびアンラベル画像のデータセットが与えられた場合、そのタスクはすべての画像をアンラベル画像のサブセットにまとめることである。
カテゴリー発見のための合成データセット「Clevr-4」を提案する。
論文 参考訳(メタデータ) (2023-11-28T18:59:46Z) - Generalized Category Discovery in Semantic Segmentation [43.99230778597973]
本稿では,セマンティックにおける一般化カテゴリー発見 (Generalized Category Discovery in Semantic, GCDSS) という新しい設定について検討する。
GCDSSは、ラベル付きベースクラスのセットから事前の知識に基づいてラベル付きイメージをセグメントすることを目的としている。
セマンティックにおける新規カテゴリー発見(NCDSS)とは対照的に、各未ラベル画像に少なくとも1つの新しいクラスが存在するという前提条件はない。
論文 参考訳(メタデータ) (2023-11-20T04:11:16Z) - Incremental Generalized Category Discovery [26.028970894707204]
インクリメンタル一般化カテゴリー発見(IGCD)の課題を探る
これは、以前に見られたカテゴリから画像を正しく分類できるモデルを開発することを目的としている、挑戦的なカテゴリインクリメンタルな学習環境である。
本稿では,非パラメトリック分類と効率的な画像サンプリングを組み合わせたIGCDの新しい手法を提案する。
論文 参考訳(メタデータ) (2023-04-27T16:27:11Z) - Dynamic Conceptional Contrastive Learning for Generalized Category
Discovery [76.82327473338734]
Generalized category discovery (GCD) は、部分的にラベル付けされたデータを自動でクラスタリングすることを目的としている。
ラベル付きデータには、ラベル付きデータの既知のカテゴリだけでなく、新しいカテゴリのインスタンスも含まれている。
GCDの効果的な方法の1つは、ラベルなしデータの識別表現を学習するために自己教師付き学習を適用することである。
本稿では,クラスタリングの精度を効果的に向上する動的概念コントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-30T14:04:39Z) - Novel Class Discovery in Semantic Segmentation [104.30729847367104]
セマンティックにおける新しいクラス発見(NCDSS)について紹介する。
ラベル付き非結合クラスの集合から事前の知識を与えられた新しいクラスを含むラベル付きイメージのセグメンテーションを目的としている。
NCDSSでは、オブジェクトと背景を区別し、画像内の複数のクラスの存在を処理する必要があります。
本稿では,エントロピーに基づく不確実性モデリングと自己学習(EUMS)フレームワークを提案し,ノイズの多い擬似ラベルを克服する。
論文 参考訳(メタデータ) (2021-12-03T13:31:59Z) - Unsupervised Part Discovery from Contrastive Reconstruction [90.88501867321573]
自己監督型視覚表現学習の目標は、強く伝達可能な画像表現を学習することである。
対象部分の発見とセグメンテーションに対する教師なしアプローチを提案する。
本手法は, 細粒度, 視覚的に異なるカテゴリ間でセマンティックな部分を生成する。
論文 参考訳(メタデータ) (2021-11-11T17:59:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。