論文の概要: Unsupervised Co-part Segmentation through Assembly
- arxiv url: http://arxiv.org/abs/2106.05897v1
- Date: Thu, 10 Jun 2021 16:22:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-11 14:19:36.335029
- Title: Unsupervised Co-part Segmentation through Assembly
- Title(参考訳): アセンブリによる非教師なしコパートセグメンテーション
- Authors: Qingzhe Gao, Bin Wang, Libin Liu, Baoquan Chen
- Abstract要約: 画像からのコパートセグメンテーションのための教師なし学習手法を提案する。
我々はビデオに埋め込まれた動作情報を活用し、意味のある対象をセグメント化する潜在表現を明示的に抽出する。
提案手法は,多種多様なベンチマークにおける最先端のアプローチよりも優れた,有意義でコンパクトな部分分割を実現することができることを示す。
- 参考スコア(独自算出の注目度): 42.874278526843305
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Co-part segmentation is an important problem in computer vision for its rich
applications. We propose an unsupervised learning approach for co-part
segmentation from images. For the training stage, we leverage motion
information embedded in videos and explicitly extract latent representations to
segment meaningful object parts. More importantly, we introduce a dual
procedure of part-assembly to form a closed loop with part-segmentation,
enabling an effective self-supervision. We demonstrate the effectiveness of our
approach with a host of extensive experiments, ranging from human bodies,
hands, quadruped, and robot arms. We show that our approach can achieve
meaningful and compact part segmentation, outperforming state-of-the-art
approaches on diverse benchmarks.
- Abstract(参考訳): コーパートセグメンテーションは、そのリッチなアプリケーションにとってコンピュータビジョンの重要な問題である。
画像からのコパートセグメンテーションのための教師なし学習手法を提案する。
学習段階では,映像に埋め込まれた動作情報を活用し,有意義な対象部分をセグメント化するために潜在表現を明示的に抽出する。
さらに, 部分集合の二重手続きを導入し, 部分集合による閉ループを形成し, 効果的な自己スーパービジョンを実現する。
我々は、人体、手、四足歩行、ロボットアームなど幅広い実験を行い、このアプローチの有効性を実証する。
提案手法は,多種多様なベンチマークにおいて有意義でコンパクトな部分分割が可能であり,最先端のアプローチよりも優れていることを示す。
関連論文リスト
- Articulate your NeRF: Unsupervised articulated object modeling via conditional view synthesis [24.007950839144918]
そこで本稿では,頑健な部分を持つ明瞭な物体のポーズと部分分割を学習するための教師なしの手法を提案する。
本手法は,最初の観測から暗黙のモデルを用いて物体の形状と外観を学習する。
論文 参考訳(メタデータ) (2024-06-24T13:13:31Z) - Understanding Multi-Granularity for Open-Vocabulary Part Segmentation [24.071471822239854]
Open-vocabulary part segmentation (OVPS) は、多種多様な未確認語彙を用いたきめ細かいエンティティのセグメンテーションに焦点を当てた新興研究分野である。
本研究は,部分識別の知識に基づく性質を反映して,複雑な境界と多様な粒度による部分分割の複雑さを強調した。
一般化された部分とオブジェクトレベルのコンテキストを活用する新しいフレームワークであるPartCLIPSegを提案する。
論文 参考訳(メタデータ) (2024-06-17T10:11:28Z) - Towards Open-World Segmentation of Parts [16.056921233445784]
本稿では,クラスに依存しない部分分割タスクを提案する。
パートクラスなしでトレーニングされたモデルは、トレーニング時に見えない部分のローカライズとオブジェクトへのセグメンテーションを改善することができる、と私たちは主張する。
当社のアプローチでは,オープンワールドのパートセグメンテーションに向けた重要なステップとして,注目すべきかつ一貫した成果をあげています。
論文 参考訳(メタデータ) (2023-05-26T10:34:58Z) - Open-world Semantic Segmentation via Contrasting and Clustering
Vision-Language Embedding [95.78002228538841]
本研究では,様々なオープンワールドカテゴリのセマンティックオブジェクトを高密度アノテーションを使わずにセマンティックオブジェクトのセマンティックオブジェクトのセマンティック化を学習するための,新しいオープンワールドセマンティックセマンティックセマンティックセマンティクスパイプラインを提案する。
提案手法は任意のカテゴリのオブジェクトを直接分割し、3つのベンチマークデータセット上でデータラベリングを必要とするゼロショットセグメンテーション法より優れている。
論文 参考訳(メタデータ) (2022-07-18T09:20:04Z) - Unsupervised Part Discovery from Contrastive Reconstruction [90.88501867321573]
自己監督型視覚表現学習の目標は、強く伝達可能な画像表現を学習することである。
対象部分の発見とセグメンテーションに対する教師なしアプローチを提案する。
本手法は, 細粒度, 視覚的に異なるカテゴリ間でセマンティックな部分を生成する。
論文 参考訳(メタデータ) (2021-11-11T17:59:42Z) - A Survey on Deep Learning Technique for Video Segmentation [147.0767454918527]
ビデオセグメンテーションは幅広い応用において重要な役割を果たしている。
ディープラーニングベースのアプローチは、ビデオセグメンテーションに特化しており、魅力的なパフォーマンスを提供している。
論文 参考訳(メタデータ) (2021-07-02T15:51:07Z) - Self-supervised Video Object Segmentation by Motion Grouping [79.13206959575228]
動きの手がかりを利用して物体をセグメンテーションできるコンピュータビジョンシステムを開発した。
本稿では,光フローフレームを一次オブジェクトと背景に分割するトランスフォーマーの簡単なバリエーションを紹介する。
提案したアーキテクチャを公開ベンチマーク(DAVIS2016, SegTrackv2, FBMS59)で評価する。
論文 参考訳(メタデータ) (2021-04-15T17:59:32Z) - Unsupervised Part Discovery by Unsupervised Disentanglement [10.664434993386525]
部分分割は、個々のピクセルのレベルにおける部分ローカライゼーションに関する情報を提供する。
大きなアノテーションのコストは、教師付きアルゴリズムのスケーラビリティを他のオブジェクトカテゴリに制限します。
我々の研究は、監督なしに意味的部分のセグメンテーションを発見できる可能性を示している。
論文 参考訳(メタデータ) (2020-09-09T12:34:37Z) - Motion-supervised Co-Part Segmentation [88.40393225577088]
本稿では,コパートセグメンテーションのための自己教師型ディープラーニング手法を提案する。
提案手法は,映像から推定される動き情報を有効活用して意味のある物体の発見を可能にする。
論文 参考訳(メタデータ) (2020-04-07T09:56:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。