論文の概要: Scene-level Tracking and Reconstruction without Object Priors
- arxiv url: http://arxiv.org/abs/2210.03815v1
- Date: Fri, 7 Oct 2022 20:56:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-11 19:52:37.723655
- Title: Scene-level Tracking and Reconstruction without Object Priors
- Title(参考訳): 対象を含まないシーンレベルの追跡と再構成
- Authors: Haonan Chang and Abdeslam Boularias
- Abstract要約: 本研究では,各シーンにおける可視物体の追跡と再構成を行うことのできる,初めてのリアルタイムシステムを提案する。
提案システムでは,新しいシーンにおける全可視物体のライブな形状と変形をリアルタイムに行うことができる。
- 参考スコア(独自算出の注目度): 14.068026331380844
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present the first real-time system capable of tracking and reconstructing,
individually, every visible object in a given scene, without any form of prior
on the rigidness of the objects, texture existence, or object category. In
contrast with previous methods such as Co-Fusion and MaskFusion that first
segment the scene into individual objects and then process each object
independently, the proposed method dynamically segments the non-rigid scene as
part of the tracking and reconstruction process. When new measurements indicate
topology change, reconstructed models are updated in real-time to reflect that
change. Our proposed system can provide the live geometry and deformation of
all visible objects in a novel scene in real-time, which makes it possible to
be integrated seamlessly into numerous existing robotics applications that rely
on object models for grasping and manipulation. The capabilities of the
proposed system are demonstrated in challenging scenes that contain multiple
rigid and non-rigid objects.
- Abstract(参考訳): 本研究では,対象物の剛性,テクスチャの存在,あるいは対象のカテゴリに先立って,各シーンにおける可視物体の追跡と再構成を行うことのできる,最初のリアルタイムシステムを提案する。
最初に個々のオブジェクトにセグメンテーションし、各オブジェクトを個別に処理するコフュージョンやマスクフュージョンのような従来の方法とは対照的に、提案手法では追跡および再構成プロセスの一部として非リグニッドシーンを動的にセグメンテーションする。
新しい測定値がトポロジの変化を示すと、再構成されたモデルはリアルタイムで更新され、その変化を反映する。
提案システムでは,新規シーンにおける可視物体のライブな形状と変形をリアルタイムで実現し,物体の把握と操作にオブジェクトモデルに依存する多数の既存ロボットアプリケーションにシームレスに統合することが可能である。
提案システムの性能は,複数の剛体および非剛体物体を含む挑戦的な場面で実証される。
関連論文リスト
- ICGNet: A Unified Approach for Instance-Centric Grasping [42.92991092305974]
オブジェクト中心の把握のためのエンドツーエンドアーキテクチャを導入する。
提案手法の有効性を,合成データセット上での最先端手法に対して広範囲に評価することにより示す。
論文 参考訳(メタデータ) (2024-01-18T12:41:41Z) - AssetField: Assets Mining and Reconfiguration in Ground Feature Plane
Representation [111.59786941545774]
AssetFieldは、新しいニューラルシーン表現で、シーンを表現するためにオブジェクト対応のグラウンド特徴面のセットを学習する。
AssetFieldは、新しいシーン構成のためのリアルなレンダリングを生成するとともに、新規ビュー合成のための競争性能を実現する。
論文 参考訳(メタデータ) (2023-03-24T12:18:10Z) - Learning to Complete Object Shapes for Object-level Mapping in Dynamic
Scenes [30.500198859451434]
本研究では,動的シーンにおけるオブジェクトの分割,追跡,再構築を同時に行うオブジェクトレベルのマッピングシステムを提案する。
さらに、深度入力とカテゴリレベルの前の形状からの再構成を条件にすることで、完全なジオメトリを予測し、完成させることができる。
実世界の合成シーケンスと実世界のシーケンスの両方で定量的に定性的にテストすることで,その有効性を評価する。
論文 参考訳(メタデータ) (2022-08-09T22:56:33Z) - Discovering Objects that Can Move [55.743225595012966]
手動ラベルなしでオブジェクトを背景から分離する、オブジェクト発見の問題について検討する。
既存のアプローチでは、色、テクスチャ、位置などの外観の手がかりを使用して、ピクセルをオブジェクトのような領域に分類する。
私たちは、動的オブジェクト -- 世界で独立して動くエンティティ -- にフォーカスすることを選びます。
論文 参考訳(メタデータ) (2022-03-18T21:13:56Z) - Reconstructing Small 3D Objects in front of a Textured Background [0.0]
テクスチャ化された背景の前を移動する小さな物体の完全な3次元再構成手法を提案する。
これは運動から多体構造の特定のバリエーションであり、2つの物体のみに特化している。
実物を用いた実験では, 両面から3次元オブジェクトを再構成する際に, 現実的な利点があることが示されている。
論文 参考訳(メタデータ) (2021-05-24T15:36:33Z) - TSDF++: A Multi-Object Formulation for Dynamic Object Tracking and
Reconstruction [57.1209039399599]
我々は,シーン全体とその中のすべてのオブジェクトに対して,単一のボリュームを維持できるマップ表現を提案する。
複数の動的オブジェクト追跡および再構成シナリオにおいて,本表現は,近接して移動する他のオブジェクトによって一時的にオクルードされても,表面の正確な再構成を維持できる。
提案したTSDF++の定式化を公開合成データセット上で評価し,標準のTSDFマップ表現と比較した場合の閉塞面の復元性を示す。
論文 参考訳(メタデータ) (2021-05-16T16:15:05Z) - Visiting the Invisible: Layer-by-Layer Completed Scene Decomposition [57.088328223220934]
既存のシーン理解システムは、主にシーンの可視部分を認識し、現実世界の物理的物体の無傷な外観を無視します。
本研究では,ある場面における物体と背景の可視部分と可視部分の両方に取り組む高レベルのシーン理解システムを提案する。
論文 参考訳(メタデータ) (2021-04-12T11:37:23Z) - Reconstructing Interactive 3D Scenes by Panoptic Mapping and CAD Model
Alignments [81.38641691636847]
エンボディエージェントの観点から,シーン再構築の問題を再考する。
rgb-dデータストリームを用いてインタラクティブシーンを再構築する。
この再構成されたシーンは、密集したパノプティカルマップのオブジェクトメッシュを、部分ベースのCADモデルに置き換える。
論文 参考訳(メタデータ) (2021-03-30T05:56:58Z) - Object-Centric Image Generation from Layouts [93.10217725729468]
複数のオブジェクトを持つ複雑なシーンを生成するレイアウト・ツー・イメージ生成法を開発した。
本手法は,シーン内のオブジェクト間の空間的関係の表現を学習し,レイアウトの忠実度の向上につながる。
本稿では,Fr'echet Inception Distanceのオブジェクト中心適応であるSceneFIDを紹介する。
論文 参考訳(メタデータ) (2020-03-16T21:40:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。