論文の概要: Learning with Free Object Segments for Long-Tailed Instance Segmentation
- arxiv url: http://arxiv.org/abs/2202.11124v1
- Date: Tue, 22 Feb 2022 19:06:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-24 15:54:00.735953
- Title: Learning with Free Object Segments for Long-Tailed Instance Segmentation
- Title(参考訳): 長期インスタンスセグメンテーションのための自由物体セグメンテーションによる学習
- Authors: Cheng Zhang, Tai-Yu Pan, Tianle Chen, Jike Zhong, Wenjin Fu, Wei-Lun
Chao
- Abstract要約: インスタンスセグメントの豊富さは、オブジェクト中心のIm-ageから自由に得ることができる。
これらの知見に触発されて,これらの「自由」オブジェクトセグメントの抽出と活用を目的としたFreeSegを提案する。
FreeSegは、まれなオブジェクトカテゴリのセグメンテーションにおける最先端の精度を達成する。
- 参考スコア(独自算出の注目度): 15.563842274862314
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: One fundamental challenge in building an instance segmentation model for a
large number of classes in complex scenes is the lack of training examples,
especially for rare objects. In this paper, we explore the possibility to
increase the training examples without laborious data collection and
annotation. We find that an abundance of instance segments can potentially be
obtained freely from object-centric im-ages, according to two insights: (i) an
object-centric image usually contains one salient object in a simple
background; (ii) objects from the same class often share similar appearances or
similar contrasts to the background. Motivated by these insights, we propose a
simple and scalable framework FreeSeg for extracting and leveraging these
"free" object foreground segments to facilitate model training in long-tailed
instance segmentation. Concretely, we employ off-the-shelf object foreground
extraction techniques (e.g., image co-segmentation) to generate instance mask
candidates, followed by segments refinement and ranking. The resulting
high-quality object segments can be used to augment the existing long-tailed
dataset, e.g., by copying and pasting the segments onto the original training
images. On the LVIS benchmark, we show that FreeSeg yields substantial
improvements on top of strong baselines and achieves state-of-the-art accuracy
for segmenting rare object categories.
- Abstract(参考訳): 複雑なシーンで多数のクラスのインスタンスセグメンテーションモデルを構築する上での基本的な課題は、特にレアオブジェクトに対するトレーニングサンプルの欠如である。
本稿では,データ収集やアノテーションを使わずにトレーニング例を増やす可能性について検討する。
2つの洞察によると、オブジェクト中心のim-ageから、多数のインスタンスセグメントが自由に得られる可能性がある。
(i)オブジェクト中心のイメージは、通常、単純な背景に1つのサルエントオブジェクトを含む。
(ii)同じクラスのオブジェクトは、背景と類似した外観や類似のコントラストを共有することが多い。
オブジェクトの前景セグメントを抽出・活用し、ロングテールインスタンスセグメンテーションにおけるモデルトレーニングを容易にするための、シンプルでスケーラブルなフレームワークfreesegを提案する。
具体的には,サンプルマスク候補の生成にオフザシェルフオブジェクトフォアグラウンド抽出技術(イメージコセグメンテーションなど)を使用し,次にセグメントの改良とランキングを行う。
結果として得られる高品質なオブジェクトセグメントは、例えば、セグメントを元のトレーニングイメージにコピー&ペーストすることで、既存の長い尾のデータセットを拡張するために使用できる。
LVISベンチマークでは、FreeSegは強いベースラインの上に実質的な改善をもたらし、希少なオブジェクトカテゴリをセグメント化するための最先端の精度を実現する。
関連論文リスト
- Synthetic Instance Segmentation from Semantic Image Segmentation Masks [15.477053085267404]
我々は、Synthetic Instance(SISeg)と呼ばれる新しいパラダイムを提案する。
SISegインスタンスセグメンテーションの結果は、既存のセマンティックセグメンテーションモデルによって生成されたイメージマスクを活用する。
言い換えれば、提案モデルは余分な人力や高い計算コストを必要としない。
論文 参考訳(メタデータ) (2023-08-02T05:13:02Z) - Semantic-SAM: Segment and Recognize Anything at Any Granularity [83.64686655044765]
本稿では,任意の粒度でセグメンテーションと認識を可能にする汎用画像セグメンテーションモデルであるSemantic-SAMを紹介する。
複数のデータセットを3つの粒度に集約し、オブジェクトとパーツの分離した分類を導入する。
マルチグラニュラリティ機能を実現するために,各クリックで複数のレベルのマスクを生成できるマルチ選択学習方式を提案する。
論文 参考訳(メタデータ) (2023-07-10T17:59:40Z) - Towards Open-World Segmentation of Parts [16.056921233445784]
本稿では,クラスに依存しない部分分割タスクを提案する。
パートクラスなしでトレーニングされたモデルは、トレーニング時に見えない部分のローカライズとオブジェクトへのセグメンテーションを改善することができる、と私たちは主張する。
当社のアプローチでは,オープンワールドのパートセグメンテーションに向けた重要なステップとして,注目すべきかつ一貫した成果をあげています。
論文 参考訳(メタデータ) (2023-05-26T10:34:58Z) - Weakly-Supervised Concealed Object Segmentation with SAM-based Pseudo
Labeling and Multi-scale Feature Grouping [40.07070188661184]
Wakly-Supervised Concealed Object (WSCOS) は、周囲の環境とうまく融合したオブジェクトを分割することを目的としている。
内在的な類似性のため、背景から隠された物体を区別することは困難である。
これら2つの課題に対処する新しいWSCOS手法を提案する。
論文 参考訳(メタデータ) (2023-05-18T14:31:34Z) - Self-Supervised Instance Segmentation by Grasping [84.2469669256257]
我々は、画像の前後から把握対象をセグメント化するためのグリップセグメンテーションモデルを学習する。
セグメント化されたオブジェクトを使用して、元のシーンからオブジェクトを"カット"し、それらを新しいシーンに"ペースト"することで、インスタンスの監視を生成する。
本稿では,従来の画像サブトラクション手法と比較して,グリップセグメント化モデルにより,グリップオブジェクトをセグメント化する場合の誤差が5倍になることを示す。
論文 参考訳(メタデータ) (2023-05-10T16:51:36Z) - Leveraging GAN Priors for Few-Shot Part Segmentation [43.35150430895919]
わずかなショット部分のセグメンテーションは、少数のサンプルしか与えられていないオブジェクトの異なる部分を切り離すことを目的としている。
本稿では,タスク固有の特徴を「事前学習」-「微調整」パラダイムで学習することを提案する。
論文 参考訳(メタデータ) (2022-07-27T10:17:07Z) - Open-world Semantic Segmentation via Contrasting and Clustering
Vision-Language Embedding [95.78002228538841]
本研究では,様々なオープンワールドカテゴリのセマンティックオブジェクトを高密度アノテーションを使わずにセマンティックオブジェクトのセマンティックオブジェクトのセマンティック化を学習するための,新しいオープンワールドセマンティックセマンティックセマンティックセマンティクスパイプラインを提案する。
提案手法は任意のカテゴリのオブジェクトを直接分割し、3つのベンチマークデータセット上でデータラベリングを必要とするゼロショットセグメンテーション法より優れている。
論文 参考訳(メタデータ) (2022-07-18T09:20:04Z) - Towards Robust Part-aware Instance Segmentation for Industrial Bin
Picking [113.79582950811348]
産業用ビンピッキングのための新しい部分認識型インスタンスセグメンテーションパイプラインを定式化する。
我々は、部品マスクと部品間オフセットを予測する部分認識ネットワークを設計し、続いて認識された部品をインスタンスに組み立てる部分集約モジュールを設計する。
このデータセットは、細く、非自明な形状の様々な産業オブジェクトを含む。
論文 参考訳(メタデータ) (2022-03-05T14:58:05Z) - SCNet: Enhancing Few-Shot Semantic Segmentation by Self-Contrastive
Background Prototypes [56.387647750094466]
Few-shot セマンティックセマンティックセマンティクスは,クエリイメージ内の新規クラスオブジェクトを,アノテーション付きの例で分割することを目的としている。
先進的なソリューションのほとんどは、各ピクセルを学習した前景のプロトタイプに合わせることでセグメンテーションを行うメトリクス学習フレームワークを利用している。
このフレームワークは、前景プロトタイプのみとのサンプルペアの不完全な構築のために偏った分類に苦しんでいます。
論文 参考訳(メタデータ) (2021-04-19T11:21:47Z) - Part-aware Prototype Network for Few-shot Semantic Segmentation [50.581647306020095]
本稿では,プロトタイプ表現に基づく新規な数ショットセマンティックセマンティックセマンティクスフレームワークを提案する。
私たちのキーとなるアイデアは、全体論的なクラス表現を、部分認識型プロトタイプのセットに分解することです。
提案する部分認識型プロトタイプを生成・拡張する新しいグラフニューラルネットワークモデルを開発した。
論文 参考訳(メタデータ) (2020-07-13T11:03:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。