論文の概要: Towards Open-World Segmentation of Parts
- arxiv url: http://arxiv.org/abs/2305.16804v1
- Date: Fri, 26 May 2023 10:34:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-29 15:40:57.176294
- Title: Towards Open-World Segmentation of Parts
- Title(参考訳): 部品のオープンワールドセグメンテーションに向けて
- Authors: Tai-Yu Pan, Qing Liu, Wei-Lun Chao, Brian Price
- Abstract要約: 本稿では,クラスに依存しない部分分割タスクを提案する。
パートクラスなしでトレーニングされたモデルは、トレーニング時に見えない部分のローカライズとオブジェクトへのセグメンテーションを改善することができる、と私たちは主張する。
当社のアプローチでは,オープンワールドのパートセグメンテーションに向けた重要なステップとして,注目すべきかつ一貫した成果をあげています。
- 参考スコア(独自算出の注目度): 16.056921233445784
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Segmenting object parts such as cup handles and animal bodies is important in
many real-world applications but requires more annotation effort. The largest
dataset nowadays contains merely two hundred object categories, implying the
difficulty to scale up part segmentation to an unconstrained setting. To
address this, we propose to explore a seemingly simplified but empirically
useful and scalable task, class-agnostic part segmentation. In this problem, we
disregard the part class labels in training and instead treat all of them as a
single part class. We argue and demonstrate that models trained without part
classes can better localize parts and segment them on objects unseen in
training. We then present two further improvements. First, we propose to make
the model object-aware, leveraging the fact that parts are "compositions",
whose extents are bounded by the corresponding objects and whose appearances
are by nature not independent but bundled. Second, we introduce a novel
approach to improve part segmentation on unseen objects, inspired by an
interesting finding -- for unseen objects, the pixel-wise features extracted by
the model often reveal high-quality part segments. To this end, we propose a
novel self-supervised procedure that iterates between pixel clustering and
supervised contrastive learning that pulls pixels closer or pushes them away.
Via extensive experiments on PartImageNet and Pascal-Part, we show notable and
consistent gains by our approach, essentially a critical step towards
open-world part segmentation.
- Abstract(参考訳): カップハンドルや動物体などのオブジェクト部分のセグメンテーションは、現実世界の多くのアプリケーションで重要であるが、より多くのアノテーションを必要とする。
現在最大のデータセットは、わずか200のオブジェクトカテゴリを含んでおり、パートセグメンテーションを制約のない設定にスケールアップすることの難しさを示唆している。
これに対処するため、我々は、シンプルだが経験的に有用でスケーラブルな、クラスに依存しない部分セグメンテーションを検討することを提案する。
この問題では、トレーニングではパートクラスのラベルを無視し、代わりにこれらすべてを単一のパートクラスとして扱います。
パートクラスなしでトレーニングされたモデルは、トレーニング時に見えないオブジェクトに部品をローカライズし、セグメンテーションすることができることを議論し、実証する。
次にさらに2つの改善点を示す。
まず、部品が「構成」であり、その範囲は対応する対象によって境界付けられ、外観は独立ではなく束ねられているという事実を利用して、モデルにオブジェクトを認識させることを提案する。
第二に、未知のオブジェクトに対する部分分割を改善する新しいアプローチを導入し、興味深い発見にインスパイアされて、モデルによって抽出されたピクセルワイズ特徴は、しばしば高品質な部分セグメントを明らかにする。
そこで本研究では,画素クラスタリングと教師付きコントラスト学習を反復的に繰り返し,画素を近づいたり押し飛ばしたりする,新たな自己指導手法を提案する。
PartImageNetとPascal-Partの広範な実験により、我々のアプローチによって顕著かつ一貫した利益が得られました。
関連論文リスト
- Self-Supervised Instance Segmentation by Grasping [84.2469669256257]
我々は、画像の前後から把握対象をセグメント化するためのグリップセグメンテーションモデルを学習する。
セグメント化されたオブジェクトを使用して、元のシーンからオブジェクトを"カット"し、それらを新しいシーンに"ペースト"することで、インスタンスの監視を生成する。
本稿では,従来の画像サブトラクション手法と比較して,グリップセグメント化モデルにより,グリップオブジェクトをセグメント化する場合の誤差が5倍になることを示す。
論文 参考訳(メタデータ) (2023-05-10T16:51:36Z) - Self-Supervised Learning of Object Parts for Semantic Segmentation [7.99536002595393]
我々は、オブジェクト部品の自己教師型学習がこの問題の解決策であると主張している。
本手法は3つのセマンティックセグメンテーションベンチマークの最先端を17%-3%超える。
論文 参考訳(メタデータ) (2022-04-27T17:55:17Z) - Towards Robust Part-aware Instance Segmentation for Industrial Bin
Picking [113.79582950811348]
産業用ビンピッキングのための新しい部分認識型インスタンスセグメンテーションパイプラインを定式化する。
我々は、部品マスクと部品間オフセットを予測する部分認識ネットワークを設計し、続いて認識された部品をインスタンスに組み立てる部分集約モジュールを設計する。
このデータセットは、細く、非自明な形状の様々な産業オブジェクトを含む。
論文 参考訳(メタデータ) (2022-03-05T14:58:05Z) - Learning with Free Object Segments for Long-Tailed Instance Segmentation [15.563842274862314]
インスタンスセグメントの豊富さは、オブジェクト中心のIm-ageから自由に得ることができる。
これらの知見に触発されて,これらの「自由」オブジェクトセグメントの抽出と活用を目的としたFreeSegを提案する。
FreeSegは、まれなオブジェクトカテゴリのセグメンテーションにおける最先端の精度を達成する。
論文 参考訳(メタデータ) (2022-02-22T19:06:16Z) - 3D Compositional Zero-shot Learning with DeCompositional Consensus [102.7571947144639]
我々は、部分的知識は観察されたオブジェクトクラスを超えて構成可能であるべきだと論じる。
本稿では、視覚から見えないオブジェクトクラスへの部分一般化の問題として、3D合成ゼロショット学習を提案する。
論文 参考訳(メタデータ) (2021-11-29T16:34:53Z) - The Emergence of Objectness: Learning Zero-Shot Segmentation from Videos [59.12750806239545]
動画は移動成分によって同じシーンを異なる視点で見ることができ、適切な領域分割と領域フローは相互のビュー合成を可能にする。
モデルでは,1枚の画像に対して特徴に基づく領域分割を出力する出現経路と,1枚の画像に対して動作特徴を出力する動き経路の2つの経路から開始する。
セグメントフローに基づく視線合成誤差を最小限に抑えるためにモデルを訓練することにより、我々の外観経路と運動経路は、それぞれ低レベルのエッジや光フローから構築することなく、領域のセグメンテーションとフロー推定を自動的に学習する。
論文 参考訳(メタデータ) (2021-11-11T18:59:11Z) - Unsupervised Part Discovery from Contrastive Reconstruction [90.88501867321573]
自己監督型視覚表現学習の目標は、強く伝達可能な画像表現を学習することである。
対象部分の発見とセグメンテーションに対する教師なしアプローチを提案する。
本手法は, 細粒度, 視覚的に異なるカテゴリ間でセマンティックな部分を生成する。
論文 参考訳(メタデータ) (2021-11-11T17:59:42Z) - Unsupervised Co-part Segmentation through Assembly [42.874278526843305]
画像からのコパートセグメンテーションのための教師なし学習手法を提案する。
我々はビデオに埋め込まれた動作情報を活用し、意味のある対象をセグメント化する潜在表現を明示的に抽出する。
提案手法は,多種多様なベンチマークにおける最先端のアプローチよりも優れた,有意義でコンパクトな部分分割を実現することができることを示す。
論文 参考訳(メタデータ) (2021-06-10T16:22:53Z) - Unsupervised Part Discovery by Unsupervised Disentanglement [10.664434993386525]
部分分割は、個々のピクセルのレベルにおける部分ローカライゼーションに関する情報を提供する。
大きなアノテーションのコストは、教師付きアルゴリズムのスケーラビリティを他のオブジェクトカテゴリに制限します。
我々の研究は、監督なしに意味的部分のセグメンテーションを発見できる可能性を示している。
論文 参考訳(メタデータ) (2020-09-09T12:34:37Z) - Part-aware Prototype Network for Few-shot Semantic Segmentation [50.581647306020095]
本稿では,プロトタイプ表現に基づく新規な数ショットセマンティックセマンティックセマンティクスフレームワークを提案する。
私たちのキーとなるアイデアは、全体論的なクラス表現を、部分認識型プロトタイプのセットに分解することです。
提案する部分認識型プロトタイプを生成・拡張する新しいグラフニューラルネットワークモデルを開発した。
論文 参考訳(メタデータ) (2020-07-13T11:03:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。