論文の概要: Multi-Model 3D Registration: Finding Multiple Moving Objects in
Cluttered Point Clouds
- arxiv url: http://arxiv.org/abs/2402.10865v1
- Date: Fri, 16 Feb 2024 18:01:43 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-19 14:51:40.695243
- Title: Multi-Model 3D Registration: Finding Multiple Moving Objects in
Cluttered Point Clouds
- Title(参考訳): multi-model 3d registration: クラッタ点雲内の複数の移動物体の探索
- Authors: David Jin, Sushrut Karmalkar, Harry Zhang, Luca Carlone
- Abstract要約: マルチモデル3D登録問題(Multi-model 3D registration)のバリエーションについて検討する。
マルチモデル登録問題では、異なるポーズでオブジェクトの集合を撮影する2点の雲が与えられる。
私たちは、すべてのオブジェクトが2点の雲の間を移動する様子を同時に再構築したいと考えています。
- 参考スコア(独自算出の注目度): 23.923838486208524
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We investigate a variation of the 3D registration problem, named multi-model
3D registration. In the multi-model registration problem, we are given two
point clouds picturing a set of objects at different poses (and possibly
including points belonging to the background) and we want to simultaneously
reconstruct how all objects moved between the two point clouds. This setup
generalizes standard 3D registration where one wants to reconstruct a single
pose, e.g., the motion of the sensor picturing a static scene. Moreover, it
provides a mathematically grounded formulation for relevant robotics
applications, e.g., where a depth sensor onboard a robot perceives a dynamic
scene and has the goal of estimating its own motion (from the static portion of
the scene) while simultaneously recovering the motion of all dynamic objects.
We assume a correspondence-based setup where we have putative matches between
the two point clouds and consider the practical case where these
correspondences are plagued with outliers. We then propose a simple approach
based on Expectation-Maximization (EM) and establish theoretical conditions
under which the EM approach converges to the ground truth. We evaluate the
approach in simulated and real datasets ranging from table-top scenes to
self-driving scenarios and demonstrate its effectiveness when combined with
state-of-the-art scene flow methods to establish dense correspondences.
- Abstract(参考訳): マルチモデル3D登録問題(Multi-model 3D registration)のバリエーションについて検討する。
マルチモデル登録問題では、異なるポーズでオブジェクトの集合を(おそらく背景に属するポイントを含む)撮影する2つのポイントクラウドが与えられ、すべてのオブジェクトが2つのポイントクラウド間でどのように移動したかを同時に再構築したいと考えています。
この設定は、静止シーンを撮影するセンサーの動作のように、単一のポーズを再構築したい場合に標準3D登録を一般化する。
さらに、ロボットに搭載された深度センサが動的シーンを知覚し、すべての動的オブジェクトの動作を同時に回復しながら、自身の動き(シーンの静的部分から)を推定する目標を持つような、関連するロボット応用のための数学的接地式を提供する。
二つの点の雲の一致を仮定した対応ベースの設定を仮定し、これらの対応が外れ値に悩まされる場合を考える。
次に、期待最大化(EM)に基づく簡単なアプローチを提案し、EMアプローチが基底真理に収束する理論条件を確立する。
本研究では,テーブルトップシーンから自動運転シナリオまで,シミュレーションおよび実際のデータセットにおけるアプローチを評価し,その有効性を示す。
関連論文リスト
- 3D Focusing-and-Matching Network for Multi-Instance Point Cloud Registration [45.579241614565376]
マルチインスタンスポイントクラウド登録のための強力な3D焦点マッチングネットワークを提案する。
自己アテンションと横断アテンションを使用することで、オブジェクトセンターを後退させることで、潜在的なマッチングインスタンスを見つけることができる。
提案手法は,マルチインスタンスポイントクラウド登録タスクにおいて,新たな最先端性能を実現する。
論文 参考訳(メタデータ) (2024-11-12T12:04:44Z) - EgoGaussian: Dynamic Scene Understanding from Egocentric Video with 3D Gaussian Splatting [95.44545809256473]
エゴガウスアン(EgoGaussian)は、3Dシーンを同時に再構築し、RGBエゴセントリックな入力のみから3Dオブジェクトの動きを動的に追跡する手法である。
動的オブジェクトと背景再構築の品質の両面で,最先端技術と比較して大きな改善が見られた。
論文 参考訳(メタデータ) (2024-06-28T10:39:36Z) - Mixed Diffusion for 3D Indoor Scene Synthesis [55.94569112629208]
混合離散連続拡散モデルアーキテクチャであるMiDiffusionを提案する。
シーンレイアウトを2次元のフロアプランとオブジェクトの集合で表現し、それぞれがそのカテゴリ、場所、サイズ、方向で定義する。
実験により,MiDiffusionは床条件下での3次元シーン合成において,最先端の自己回帰モデルや拡散モデルよりもかなり優れていることが示された。
論文 参考訳(メタデータ) (2024-05-31T17:54:52Z) - ICGNet: A Unified Approach for Instance-Centric Grasping [42.92991092305974]
オブジェクト中心の把握のためのエンドツーエンドアーキテクチャを導入する。
提案手法の有効性を,合成データセット上での最先端手法に対して広範囲に評価することにより示す。
論文 参考訳(メタデータ) (2024-01-18T12:41:41Z) - ROAM: Robust and Object-Aware Motion Generation Using Neural Pose
Descriptors [73.26004792375556]
本稿では,3次元オブジェクト認識キャラクタ合成における新しいシーンオブジェクトへのロバストさと一般化が,参照オブジェクトを1つも持たないモーションモデルをトレーニングすることで実現可能であることを示す。
我々は、オブジェクト専用のデータセットに基づいて訓練された暗黙的な特徴表現を活用し、オブジェクトの周りのSE(3)-同変記述体フィールドをエンコードする。
本研究では,3次元仮想キャラクタの動作と相互作用の質,および未知のオブジェクトを持つシナリオに対するロバスト性を大幅に向上することを示す。
論文 参考訳(メタデータ) (2023-08-24T17:59:51Z) - Attentive and Contrastive Learning for Joint Depth and Motion Field
Estimation [76.58256020932312]
単眼視システムからシーンの3次元構造とともにカメラの動きを推定することは複雑な作業である。
モノクロ映像からの3次元物体運動場推定のための自己教師付き学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-10-13T16:45:01Z) - Monocular Quasi-Dense 3D Object Tracking [99.51683944057191]
周囲の物体の将来の位置を予測し、自律運転などの多くのアプリケーションで観測者の行動を計画するためには、信頼性と正確な3D追跡フレームワークが不可欠である。
移動プラットフォーム上で撮影された2次元画像のシーケンスから,移動物体を時間とともに効果的に関連付け,その全3次元バウンディングボックス情報を推定するフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-12T15:30:02Z) - Learning Monocular Depth in Dynamic Scenes via Instance-Aware Projection
Consistency [114.02182755620784]
本稿では,複数の動的物体の6-DoF動作,エゴモーション,深度を,監督なしで一眼レフカメラで明示的にモデル化する,エンドツーエンドのジョイントトレーニングフレームワークを提案する。
筆者らのフレームワークは,最先端の深度・動き推定法より優れていた。
論文 参考訳(メタデータ) (2021-02-04T14:26:42Z) - MoreFusion: Multi-object Reasoning for 6D Pose Estimation from
Volumetric Fusion [19.034317851914725]
本稿では,複数の既知の物体の接触と隠蔽の正確なポーズを,リアルタイムな多視点視から推定するシステムを提案する。
提案手法は,1枚のRGB-Dビューからの3Dオブジェクトのポーズ提案を行い,カメラが移動すると,複数のビューからのポーズ推定と非パラメトリック占有情報を蓄積する。
提案手法の精度とロバスト性を2つのオブジェクトデータセット(YCB-Video)で実験的に検証する。
論文 参考訳(メタデータ) (2020-04-09T02:29:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。