論文の概要: Multi-body SE(3) Equivariance for Unsupervised Rigid Segmentation and
Motion Estimation
- arxiv url: http://arxiv.org/abs/2306.05584v1
- Date: Thu, 8 Jun 2023 22:55:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-12 15:16:33.264670
- Title: Multi-body SE(3) Equivariance for Unsupervised Rigid Segmentation and
Motion Estimation
- Title(参考訳): 教師なし剛体セグメンテーションと運動推定のための多体SE(3)等価性
- Authors: Jia-Xing Zhong, Ta-Ying Cheng, Yuhang He, Kai Lu, Kaichen Zhou, Andrew
Markham, Niki Trigoni
- Abstract要約: 本稿では、SE(3)同変アーキテクチャと、この課題に教師なしで取り組むためのトレーニング戦略を提案する。
我々のアーキテクチャは、セグメンテーションマスクを予測する2つの軽量で相互接続されたヘッドで構成されている。
統合トレーニング戦略は,2つの予測を協調的に最適化しながら,オンラインで実施することができる。
- 参考スコア(独自算出の注目度): 53.50249572584122
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A truly generalizable approach to rigid segmentation and motion estimation is
fundamental to 3D understanding of articulated objects and moving scenes. In
view of the tightly coupled relationship between segmentation and motion
estimates, we present an SE(3) equivariant architecture and a training strategy
to tackle this task in an unsupervised manner. Our architecture comprises two
lightweight and inter-connected heads that predict segmentation masks using
point-level invariant features and motion estimates from SE(3) equivariant
features without the prerequisites of category information. Our unified
training strategy can be performed online while jointly optimizing the two
predictions by exploiting the interrelations among scene flow, segmentation
mask, and rigid transformations. We show experiments on four datasets as
evidence of the superiority of our method both in terms of model performance
and computational efficiency with only 0.25M parameters and 0.92G FLOPs. To the
best of our knowledge, this is the first work designed for category-agnostic
part-level SE(3) equivariance in dynamic point clouds.
- Abstract(参考訳): 厳密なセグメンテーションと運動推定への真に一般化可能なアプローチは、明瞭な物体や移動シーンの3次元理解に不可欠である。
セグメンテーションと運動推定の密結合性の観点から,SE(3)同変アーキテクチャと,この課題に教師なしで取り組むためのトレーニング戦略を提案する。
本アーキテクチャは,2つの軽量かつ相互接続型ヘッドからなり,点レベル不変特徴を用いたセグメンテーションマスクとSE(3)同変特徴からの運動推定をカテゴリ情報の前提条件なしに予測する。
シーンフロー,セグメンテーションマスク,剛性変換の相互関係を生かして,2つの予測を共同で最適化しながら,統一トレーニング戦略をオンラインで実施する。
モデル性能と計算効率の両面において,0.25Mパラメータと0.92G FLOPを用いた4つのデータセット実験を行った。
我々の知る限りでは、これは動的点雲におけるカテゴリーに依存しない部分レベルSE(3)同値性のために設計された最初の研究である。
関連論文リスト
- S^2Former-OR: Single-Stage Bi-Modal Transformer for Scene Graph Generation in OR [50.435592120607815]
外科手術のシーングラフ生成(SGG)は、手術室(OR)におけるホモロジー認知知能の増強に不可欠である
これまでの研究は主に多段階学習に依存しており、生成したセマンティックシーングラフはポーズ推定とオブジェクト検出を伴う中間プロセスに依存している。
本研究では,S2Former-OR(S2Former-OR)と呼ばれるORにおけるSGGのための新しいシングルステージバイモーダルトランスフォーマフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-22T11:40:49Z) - Semi-Weakly Supervised Object Kinematic Motion Prediction [56.282759127180306]
3Dオブジェクトが与えられた場合、運動予測は移動部と対応する運動パラメータを識別することを目的としている。
階層的部分分割と移動部パラメータのマップを学習するグラフニューラルネットワークを提案する。
ネットワーク予測は、擬似ラベル付き移動情報を持つ大規模な3Dオブジェクトを生成する。
論文 参考訳(メタデータ) (2023-03-31T02:37:36Z) - Segmenting Moving Objects via an Object-Centric Layered Representation [100.26138772664811]
深層表現を用いたオブジェクト中心セグメンテーションモデルを提案する。
複数のオブジェクトで合成トレーニングデータを生成するスケーラブルなパイプラインを導入する。
標準的なビデオセグメンテーションベンチマークでモデルを評価する。
論文 参考訳(メタデータ) (2022-07-05T17:59:43Z) - PointInst3D: Segmenting 3D Instances by Points [136.7261709896713]
本稿では,ポイント単位の予測方式で機能する,完全畳み込み型3Dポイントクラウドインスタンスセグメンテーション手法を提案する。
その成功の鍵は、各サンプルポイントに適切なターゲットを割り当てることにある。
提案手法はScanNetとS3DISのベンチマークで有望な結果が得られる。
論文 参考訳(メタデータ) (2022-04-25T02:41:46Z) - Learning to Segment Rigid Motions from Two Frames [72.14906744113125]
本研究では, 運動場から独立物体の動きを復元する幾何学的解析により, モジュラーネットワークを提案する。
2つの連続フレームを入力とし、背景のセグメンテーションマスクと複数の剛体移動オブジェクトを予測し、3次元の剛体変換によってパラメータ化する。
本手法はkittiおよびsintelにおける剛体運動セグメンテーションの最先端性能を実現する。
論文 参考訳(メタデータ) (2021-01-11T04:20:30Z) - 3DCFS: Fast and Robust Joint 3D Semantic-Instance Segmentation via
Coupled Feature Selection [46.922236354885]
本稿では,3DCFSと呼ばれる3Dポイント・クラウド・セグメンテーション・フレームワークを提案し,セグメンテーションとインスタンスセグメンテーションを共同で行う。
人間のシーン認識プロセスにインスパイアされた我々は、相互の意味的特徴と事例的特徴を適応的に選択・融合するCFSMという、新しい結合した特徴選択モジュールを設計する。
我々の3DCFSは、精度、速度、計算コストの点で、ベンチマークデータセットの最先端の手法よりも優れています。
論文 参考訳(メタデータ) (2020-03-01T17:48:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。