論文の概要: PartSeg: Few-shot Part Segmentation via Part-aware Prompt Learning
- arxiv url: http://arxiv.org/abs/2308.12757v1
- Date: Thu, 24 Aug 2023 13:03:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-25 14:07:02.172411
- Title: PartSeg: Few-shot Part Segmentation via Part-aware Prompt Learning
- Title(参考訳): PartSeg:Part-Aware Prompt Learningによるパートセグメンテーション
- Authors: Mengya Han, Heliang Zheng, Chaoyue Wang, Yong Luo, Han Hu, Jing Zhang,
Yonggang Wen
- Abstract要約: マルチモーダル学習に基づくパートセグメンテーションのためのパートセグと呼ばれる新しい手法を開発した。
PartImageNetとPascal$_$Partデータセットについて広範な実験を行った。
- 参考スコア(独自算出の注目度): 44.48704588318053
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we address the task of few-shot part segmentation, which aims
to segment the different parts of an unseen object using very few labeled
examples. It is found that leveraging the textual space of a powerful
pre-trained image-language model (such as CLIP) can be beneficial in learning
visual features. Therefore, we develop a novel method termed PartSeg for
few-shot part segmentation based on multimodal learning. Specifically, we
design a part-aware prompt learning method to generate part-specific prompts
that enable the CLIP model to better understand the concept of ``part'' and
fully utilize its textual space. Furthermore, since the concept of the same
part under different object categories is general, we establish relationships
between these parts during the prompt learning process. We conduct extensive
experiments on the PartImageNet and Pascal$\_$Part datasets, and the
experimental results demonstrated that our proposed method achieves
state-of-the-art performance.
- Abstract(参考訳): 本研究は,ごく少数のラベル付き例を用いて,見えないオブジェクトの異なる部分をセグメント化することを目的とした,少数ショット部分のセグメンテーションの課題に対処する。
画像言語モデル(CLIPなど)のテキスト空間を活用することで,視覚的特徴の学習に有用であることが判明した。
そこで本研究では,マルチモーダル学習に基づくパートセグメンテーションのためのPartSegと呼ばれる新しい手法を開発した。
具体的には、CLIPモデルが `part' の概念をよりよく理解し、そのテキスト空間を完全に活用できるように、パート固有のプロンプトを生成する部分認識プロンプト学習手法を設計する。
さらに,異なる対象カテゴリの同じ部分の概念が一般的であることから,これらの部分間の関係を即興学習過程において確立する。
我々はpartimagenetとpascal$\_$partデータセットの広範な実験を行い,提案手法が最先端の性能を実現することを実証した。
関連論文リスト
- Visual Prompt Selection for In-Context Learning Segmentation [77.15684360470152]
本稿では,サンプル選択戦略の再考と改善に焦点をあてる。
まず、ICLに基づくセグメンテーションモデルが異なる文脈に敏感であることを示す。
さらに、経験的証拠は、文脈的プロンプトの多様性がセグメンテーションを導く上で重要な役割を担っていることを示している。
論文 参考訳(メタデータ) (2024-07-14T15:02:54Z) - Understanding Multi-Granularity for Open-Vocabulary Part Segmentation [24.071471822239854]
Open-vocabulary part segmentation (OVPS) は、多種多様な未確認語彙を用いたきめ細かいエンティティのセグメンテーションに焦点を当てた新興研究分野である。
本研究は,部分識別の知識に基づく性質を反映して,複雑な境界と多様な粒度による部分分割の複雑さを強調した。
一般化された部分とオブジェクトレベルのコンテキストを活用する新しいフレームワークであるPartCLIPSegを提案する。
論文 参考訳(メタデータ) (2024-06-17T10:11:28Z) - Towards Open-World Segmentation of Parts [16.056921233445784]
本稿では,クラスに依存しない部分分割タスクを提案する。
パートクラスなしでトレーニングされたモデルは、トレーニング時に見えない部分のローカライズとオブジェクトへのセグメンテーションを改善することができる、と私たちは主張する。
当社のアプローチでは,オープンワールドのパートセグメンテーションに向けた重要なステップとして,注目すべきかつ一貫した成果をあげています。
論文 参考訳(メタデータ) (2023-05-26T10:34:58Z) - Leveraging GAN Priors for Few-Shot Part Segmentation [43.35150430895919]
わずかなショット部分のセグメンテーションは、少数のサンプルしか与えられていないオブジェクトの異なる部分を切り離すことを目的としている。
本稿では,タスク固有の特徴を「事前学習」-「微調整」パラダイムで学習することを提案する。
論文 参考訳(メタデータ) (2022-07-27T10:17:07Z) - 3D Compositional Zero-shot Learning with DeCompositional Consensus [102.7571947144639]
我々は、部分的知識は観察されたオブジェクトクラスを超えて構成可能であるべきだと論じる。
本稿では、視覚から見えないオブジェクトクラスへの部分一般化の問題として、3D合成ゼロショット学習を提案する。
論文 参考訳(メタデータ) (2021-11-29T16:34:53Z) - SCNet: Enhancing Few-Shot Semantic Segmentation by Self-Contrastive
Background Prototypes [56.387647750094466]
Few-shot セマンティックセマンティックセマンティクスは,クエリイメージ内の新規クラスオブジェクトを,アノテーション付きの例で分割することを目的としている。
先進的なソリューションのほとんどは、各ピクセルを学習した前景のプロトタイプに合わせることでセグメンテーションを行うメトリクス学習フレームワークを利用している。
このフレームワークは、前景プロトタイプのみとのサンプルペアの不完全な構築のために偏った分類に苦しんでいます。
論文 参考訳(メタデータ) (2021-04-19T11:21:47Z) - Part-aware Prototype Network for Few-shot Semantic Segmentation [50.581647306020095]
本稿では,プロトタイプ表現に基づく新規な数ショットセマンティックセマンティックセマンティクスフレームワークを提案する。
私たちのキーとなるアイデアは、全体論的なクラス表現を、部分認識型プロトタイプのセットに分解することです。
提案する部分認識型プロトタイプを生成・拡張する新しいグラフニューラルネットワークモデルを開発した。
論文 参考訳(メタデータ) (2020-07-13T11:03:09Z) - Motion-supervised Co-Part Segmentation [88.40393225577088]
本稿では,コパートセグメンテーションのための自己教師型ディープラーニング手法を提案する。
提案手法は,映像から推定される動き情報を有効活用して意味のある物体の発見を可能にする。
論文 参考訳(メタデータ) (2020-04-07T09:56:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。