論文の概要: Class Enhancement Losses with Pseudo Labels for Zero-shot Semantic
Segmentation
- arxiv url: http://arxiv.org/abs/2301.07336v1
- Date: Wed, 18 Jan 2023 06:55:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-19 16:35:27.184384
- Title: Class Enhancement Losses with Pseudo Labels for Zero-shot Semantic
Segmentation
- Title(参考訳): ゼロショットセマンティクスセグメンテーションのための擬似ラベルを用いたクラス拡張損失
- Authors: Son Duy Dao, Hengcan Shi, Dinh Phung, Jianfei Cai
- Abstract要約: マスクの提案モデルは、ゼロショットセマンティックセグメンテーションの性能を大幅に改善した。
トレーニング中にバックグラウンドを埋め込むことは問題であり、結果として得られたモデルが過剰に学習し、正しいラベルではなく、すべての見えないクラスをバックグラウンドクラスとして割り当てる傾向がある。
本稿では,学習中の背景埋め込みの使用を回避し,テキスト埋め込みとマスク提案のセマンティックな関係を類似度スコアのランク付けにより活用する新しいクラス拡張損失を提案する。
- 参考スコア(独自算出の注目度): 40.09476732999614
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent mask proposal models have significantly improved the performance of
zero-shot semantic segmentation. However, the use of a `background' embedding
during training in these methods is problematic as the resulting model tends to
over-learn and assign all unseen classes as the background class instead of
their correct labels. Furthermore, they ignore the semantic relationship of
text embeddings, which arguably can be highly informative for zero-shot
prediction as seen classes may have close relationship with unseen classes. To
this end, this paper proposes novel class enhancement losses to bypass the use
of the background embbedding during training, and simultaneously exploit the
semantic relationship between text embeddings and mask proposals by ranking the
similarity scores. To further capture the relationship between seen and unseen
classes, we propose an effective pseudo label generation pipeline using
pretrained vision-language model. Extensive experiments on several benchmark
datasets show that our method achieves overall the best performance for
zero-shot semantic segmentation. Our method is flexible, and can also be
applied to the challenging open-vocabulary semantic segmentation problem.
- Abstract(参考訳): 最近のマスク提案モデルは、ゼロショットセマンティックセグメンテーションの性能を大幅に改善した。
しかし、これらのメソッドのトレーニング中に‘バックグラウンド’埋め込みを使用することは問題であり、結果として得られるモデルは、正しいラベルではなく、すべての未発見のクラスをバックグラウンドクラスとして過剰に学習し割り当てる傾向がある。
さらに, テキスト埋め込みのセマンティックな関係を無視し, 目に見えないクラスと密接な関係を持つため, ゼロショット予測に極めて有益であると考えられる。
そこで本稿では,学習中の背景エンベディングを回避し,類似度スコアをランク付けすることで,テキスト埋め込みとマスク提案間の意味的関係を同時に活用する新しいクラス拡張損失を提案する。
そこで本研究では,視覚言語モデルを用いた効果的な擬似ラベル生成パイプラインを提案する。
いくつかのベンチマークデータセットにおける広範囲な実験により,ゼロショットセマンティクスセグメンテーションの総合的性能が得られた。
本手法は柔軟であり,オープン語彙セマンティックセグメンテーション問題にも適用可能である。
関連論文リスト
- Manual Verbalizer Enrichment for Few-Shot Text Classification [1.860409237919611]
acrshortmaveは、クラスラベルの豊か化による動詞化のためのアプローチである。
本モデルでは, 資源を著しく減らしながら, 最先端の成果が得られている。
論文 参考訳(メタデータ) (2024-10-08T16:16:47Z) - Learning to Detour: Shortcut Mitigating Augmentation for Weakly Supervised Semantic Segmentation [7.5856806269316825]
弱いラベルを用いた弱教師付きセマンティックセグメンテーション(WSSS)は,画素レベルのラベルを取得するためのアノテーションコストを軽減するために活発に研究されている。
本稿では,WSSS のためのショートカット緩和機能 (SMA) を提案する。これは,トレーニングデータに見られないオブジェクトと背景の組み合わせの合成表現を生成し,ショートカット機能の使用を減らす。
論文 参考訳(メタデータ) (2024-05-28T13:07:35Z) - RaSP: Relation-aware Semantic Prior for Weakly Supervised Incremental
Segmentation [28.02204928717511]
本稿では,事前学習したクラスから新しいクラスにオブジェクトを移すための弱い教師付きアプローチを提案する。
クラス間の単純なペアインタラクションでさえ、古いクラスと新しいクラスのセグメンテーションマスクの品質を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2023-05-31T14:14:21Z) - Advancing Incremental Few-shot Semantic Segmentation via Semantic-guided
Relation Alignment and Adaptation [98.51938442785179]
増分的な数ショットセマンティックセマンティックセマンティクスは、セマンティクスセマンティクスモデルを新しいクラスに漸進的に拡張することを目的としている。
このタスクは、データ不均衡のため、ベースクラスと新しいクラスの間で深刻な意味認識の問題に直面します。
本稿では,従来の意味情報のガイダンスを完全に考慮した意味誘導型関係調整適応法を提案する。
論文 参考訳(メタデータ) (2023-05-18T10:40:52Z) - Learning Context-aware Classifier for Semantic Segmentation [88.88198210948426]
本稿では,文脈認識型分類器の学習を通じて文脈ヒントを利用する。
本手法はモデルに依存しないため,ジェネリックセグメンテーションモデルにも容易に適用できる。
無視できる追加パラメータと+2%の推論時間だけで、小型モデルと大型モデルの両方で十分な性能向上が達成されている。
論文 参考訳(メタデータ) (2023-03-21T07:00:35Z) - Incremental Learning in Semantic Segmentation from Image Labels [18.404068463921426]
既存のセマンティックセグメンテーションアプローチは印象的な結果を得るが、新しいカテゴリが発見されるにつれてモデルを漸進的に更新することは困難である。
本稿では、安価で広く利用可能な画像レベルのラベルから新しいクラスを分類することを目的とした、Weakly Incremental Learning for Semanticsのための新しいフレームワークを提案する。
擬似ラベルをオフラインで生成する既存のアプローチとは対照的に、画像レベルのラベルで訓練され、セグメンテーションモデルで正規化される補助分類器を使用して、擬似スーパービジョンをオンラインで取得し、モデルを漸進的に更新する。
論文 参考訳(メタデータ) (2021-12-03T12:47:12Z) - Learning Debiased and Disentangled Representations for Semantic
Segmentation [52.35766945827972]
セマンティックセグメンテーションのためのモデルに依存しない訓練手法を提案する。
各トレーニングイテレーションで特定のクラス情報をランダムに除去することにより、クラス間の機能依存を効果的に削減する。
提案手法で訓練したモデルは,複数のセマンティックセグメンテーションベンチマークにおいて強い結果を示す。
論文 参考訳(メタデータ) (2021-10-31T16:15:09Z) - Dense Contrastive Visual-Linguistic Pretraining [53.61233531733243]
画像とテキストを共同で表現するマルチモーダル表現学習手法が提案されている。
これらの手法は,大規模マルチモーダル事前学習から高レベルな意味情報を取得することにより,優れた性能を実現する。
そこで本稿では,非バイアスのDense Contrastive Visual-Linguistic Pretrainingを提案する。
論文 参考訳(メタデータ) (2021-09-24T07:20:13Z) - Leveraging Auxiliary Tasks with Affinity Learning for Weakly Supervised
Semantic Segmentation [88.49669148290306]
そこで我々はAuxSegNetと呼ばれる弱教師付きマルチタスク・フレームワークを提案し,サリエンシ検出とマルチラベル画像分類を補助タスクとして活用する。
同様の構造的セマンティクスに着想を得て,サリエンシとセグメンテーションの表現から,クロスタスクなグローバル画素レベルの親和性マップを学習することを提案する。
学習されたクロスタスク親和性は、両方のタスクに対して改善された擬似ラベルを提供するために、唾液度予測を洗練し、CAMマップを伝播するために使用することができる。
論文 参考訳(メタデータ) (2021-07-25T11:39:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。