論文の概要: Aligning Instance-Semantic Sparse Representation towards Unsupervised Object Segmentation and Shape Abstraction with Repeatable Primitives
- arxiv url: http://arxiv.org/abs/2503.06947v1
- Date: Mon, 10 Mar 2025 05:52:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-11 15:48:15.758920
- Title: Aligning Instance-Semantic Sparse Representation towards Unsupervised Object Segmentation and Shape Abstraction with Repeatable Primitives
- Title(参考訳): 繰り返しプリミティブを用いた教師なしオブジェクト分割と形状抽象化に対するインスタンス・セマンティックスパース表現のアライメント
- Authors: Jiaxin Li, Hongxing Wang, Jiawei Tan, Zhilong Ou, Junsong Yuan,
- Abstract要約: 3Dオブジェクトの形状を理解するには、インスタンスとセマンティックセグメンテーションの結果から抽象化されたオブジェクト部品による形状表現が必要である。
セマンティック・アウェア・シェイプ表現のための一段階的、完全に教師なしのフレームワークを提案する。
このフレームワークは、高次元空間におけるオブジェクト部分のスパース表現と特徴アライメントを通じて、統合インスタンスのセグメンテーション、セマンティックセグメンテーション、形状抽象化を生成する。
- 参考スコア(独自算出の注目度): 48.155145581663724
- License:
- Abstract: Understanding 3D object shapes necessitates shape representation by object parts abstracted from results of instance and semantic segmentation. Promising shape representations enable computers to interpret a shape with meaningful parts and identify their repeatability. However, supervised shape representations depend on costly annotation efforts, while current unsupervised methods work under strong semantic priors and involve multi-stage training, thereby limiting their generalization and deployment in shape reasoning and understanding. Driven by the tendency of high-dimensional semantically similar features to lie in or near low-dimensional subspaces, we introduce a one-stage, fully unsupervised framework towards semantic-aware shape representation. This framework produces joint instance segmentation, semantic segmentation, and shape abstraction through sparse representation and feature alignment of object parts in a high-dimensional space. For sparse representation, we devise a sparse latent membership pursuit method that models each object part feature as a sparse convex combination of point features at either the semantic or instance level, promoting part features in the same subspace to exhibit similar semantics. For feature alignment, we customize an attention-based strategy in the feature space to align instance- and semantic-level object part features and reconstruct the input shape using both of them, ensuring geometric reusability and semantic consistency of object parts. To firm up semantic disambiguation, we construct cascade unfrozen learning on geometric parameters of object parts.
- Abstract(参考訳): 3Dオブジェクトの形状を理解するには、インスタンスとセマンティックセグメンテーションの結果から抽象化されたオブジェクト部品による形状表現が必要である。
形状表現の証明により、コンピュータは意味のある部分で形状を解釈し、再現性を特定することができる。
しかしながら、教師付き形状表現はコストのかかるアノテーションの努力に依存するが、現在の教師なし手法は強い意味的前提の下で機能し、多段階の訓練を含むため、形状推論と理解における一般化と展開が制限される。
高次元のセマンティックな特徴が低次元の部分空間内あるいは近辺に存在する傾向に起因して、セマンティック・アウェアな形状表現に向けた一段階の完全に教師なしの枠組みを導入する。
このフレームワークは、高次元空間におけるオブジェクト部分のスパース表現と特徴アライメントを通じて、統合インスタンスのセグメンテーション、セマンティックセグメンテーション、形状抽象化を生成する。
スパース表現では,各オブジェクト部分の特徴を,意味的あるいはインスタンスレベルでの点特徴の疎凸結合としてモデル化し,同じ部分空間における部分特徴の促進と類似した意味論の表現を行う。
機能アライメントのために、特徴空間における注意に基づく戦略をカスタマイズし、インスタンスレベルのオブジェクト部分とセマンティックレベルのオブジェクト部分の特徴を調整し、それらの両方を用いて入力形状を再構築し、オブジェクト部分の幾何学的再利用性とセマンティック一貫性を確保する。
意味的曖昧さを解消するために,対象部品の幾何学的パラメータに基づいてカスケードアンフリーズ学習を構築した。
関連論文リスト
- Instance-aware 3D Semantic Segmentation powered by Shape Generators and
Classifiers [28.817905887080293]
本稿では,3次元セマンティックセグメンテーションのための新しいインスタンス認識手法を提案する。
本手法は,学習した特徴表現の一貫性を促進するために,インスタンスレベルでの幾何処理タスクを組み合わせる。
論文 参考訳(メタデータ) (2023-11-21T02:14:16Z) - ShapeMatcher: Self-Supervised Joint Shape Canonicalization,
Segmentation, Retrieval and Deformation [47.94499636697971]
本稿では,関節形状の正準化,分節化,検索,変形を行うための自己教師型学習フレームワークであるShapeMatcherを提案する。
ShapeMakerの重要な洞察は、標準化、セグメンテーション、検索、変形という4つの高関連プロセスの同時トレーニングである。
論文 参考訳(メタデータ) (2023-11-18T15:44:57Z) - Neural Constraint Satisfaction: Hierarchical Abstraction for
Combinatorial Generalization in Object Rearrangement [75.9289887536165]
基礎となるエンティティを明らかにするための階層的抽象化手法を提案する。
本研究では,エージェントのモデルにおける実体の状態の介入と,環境中の物体に作用する状態の対応関係を学習する方法を示す。
この対応を利用して、オブジェクトの異なる数や構成に一般化する制御法を開発する。
論文 参考訳(メタデータ) (2023-03-20T18:19:36Z) - Self-Supervised Category-Level Articulated Object Pose Estimation with
Part-Level SE(3) Equivariance [33.10167928198986]
カテゴリーレベルの調音オブジェクトポーズ推定は、未知の調音オブジェクトの調音オブジェクトポーズの階層を既知のカテゴリから推定することを目的としている。
我々は,人間ラベルを使わずにこの問題を解決する,新たな自己管理戦略を提案する。
論文 参考訳(メタデータ) (2023-02-28T03:02:11Z) - Self-Supervised Visual Representation Learning with Semantic Grouping [50.14703605659837]
我々は、未ラベルのシーン中心のデータから視覚表現を学習する問題に取り組む。
本研究では,データ駆動型セマンティックスロット,すなわちSlotConによる協調型セマンティックグルーピングと表現学習のためのコントラスト学習を提案する。
論文 参考訳(メタデータ) (2022-05-30T17:50:59Z) - Self-Supervised Learning of Object Parts for Semantic Segmentation [7.99536002595393]
我々は、オブジェクト部品の自己教師型学習がこの問題の解決策であると主張している。
本手法は3つのセマンティックセグメンテーションベンチマークの最先端を17%-3%超える。
論文 参考訳(メタデータ) (2022-04-27T17:55:17Z) - SPAMs: Structured Implicit Parametric Models [30.19414242608965]
本研究では,非剛体物体の動きを形状とポーズの部分的不整合表現に構造的に分解する変形可能なオブジェクト表現として,構造化単純パラメトリックモデル(SPAM)を学習する。
複雑な変形物体の動きの深度配列の復元と追跡において、我々の部分認識形状とポーズ理解が最先端のパフォーマンスに繋がることを示す実験を行った。
論文 参考訳(メタデータ) (2022-01-20T12:33:46Z) - Unsupervised Learning for Cuboid Shape Abstraction via Joint
Segmentation from Point Clouds [8.156355030558172]
複雑な3Dオブジェクトを、形状抽象化として知られる単純な幾何学的原始体として表現することは、幾何学的モデリング、構造解析、形状合成において重要である。
本研究では、点雲をコンパクトな立方体表現にマッピングするための教師なし形状抽象化法を提案する。
論文 参考訳(メタデータ) (2021-06-07T09:15:16Z) - Neural Parts: Learning Expressive 3D Shape Abstractions with Invertible
Neural Networks [118.20778308823779]
Invertible Neural Network (INN) を用いてプリミティブを定義する新しい3次元プリミティブ表現を提案する。
私たちのモデルは、部品レベルの監督なしに3Dオブジェクトを意味的に一貫した部品配置に解析することを学びます。
論文 参考訳(メタデータ) (2021-03-18T17:59:31Z) - Improving Semantic Segmentation via Decoupled Body and Edge Supervision [89.57847958016981]
既存のセグメンテーションアプローチは、グローバルコンテキストをモデル化することでオブジェクトの内部の一貫性を改善すること、あるいはマルチスケールの特徴融合によって境界に沿ったオブジェクトの詳細を洗練することを目的としている。
本稿では,セマンティックセグメンテーションのための新しいパラダイムを提案する。
我々の洞察は、セマンティックセグメンテーションの魅力ある性能には、画像の高頻度と低頻度に対応するオブジェクトのテキストボディとテキストエッジを具体的にモデル化する必要があるということである。
さまざまなベースラインやバックボーンネットワークを備えた提案したフレームワークが,オブジェクト内部の一貫性とオブジェクト境界を向上させることを示す。
論文 参考訳(メタデータ) (2020-07-20T12:11:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。