論文の概要: Objects Can Move: 3D Change Detection by Geometric Transformation
Constistency
- arxiv url: http://arxiv.org/abs/2208.09870v1
- Date: Sun, 21 Aug 2022 11:32:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-23 13:22:22.298549
- Title: Objects Can Move: 3D Change Detection by Geometric Transformation
Constistency
- Title(参考訳): オブジェクトは動く:幾何変換による3次元変化検出
- Authors: Aikaterini Adam, Torsten Sattler, Konstantinos Karantzalos and Tomas
Pajdla
- Abstract要約: AR/VRアプリケーションとロボットは、シーンがいつ変わったかを知る必要がある。
本研究では,シーン変化のみに基づく3次元オブジェクト探索手法を提案する。
我々の手法は、オブジェクトが何であるかの仮定を符号化する必要はないが、その代わりに、一貫性のある動きを利用してオブジェクトを発見する。
- 参考スコア(独自算出の注目度): 32.07372152138814
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: AR/VR applications and robots need to know when the scene has changed. An
example is when objects are moved, added, or removed from the scene. We propose
a 3D object discovery method that is based only on scene changes. Our method
does not need to encode any assumptions about what is an object, but rather
discovers objects by exploiting their coherent move. Changes are initially
detected as differences in the depth maps and segmented as objects if they
undergo rigid motions. A graph cut optimization propagates the changing labels
to geometrically consistent regions. Experiments show that our method achieves
state-of-the-art performance on the 3RScan dataset against competitive
baselines. The source code of our method can be found at
https://github.com/katadam/ObjectsCanMove.
- Abstract(参考訳): AR/VRアプリケーションとロボットは、シーンがいつ変わったかを知る必要がある。
例えば、オブジェクトがシーンから移動、追加、削除される場合です。
本研究では,シーン変化のみに基づく3次元オブジェクト探索手法を提案する。
提案手法では,オブジェクトとは何かという仮定をエンコードする必要はなく,そのコヒーレントな動きを利用してオブジェクトを発見する。
変化はまず深度マップの相違として検出され、剛体運動を受けると物体として分割される。
グラフカット最適化は、変化ラベルを幾何学的に一貫した領域に伝播する。
実験により,3rscanデータセットにおける競合ベースラインに対する最先端性能が得られた。
このメソッドのソースコードはhttps://github.com/katadam/objectscanmoveにあります。
関連論文リスト
- InseRF: Text-Driven Generative Object Insertion in Neural 3D Scenes [86.26588382747184]
InseRFは3次元シーンのNeRF再構成において生成物挿入のための新しい手法である。
ユーザが提供するテキスト記述と参照視点での2Dバウンディングボックスに基づいて、InseRFは3Dシーンで新しいオブジェクトを生成する。
論文 参考訳(メタデータ) (2024-01-10T18:59:53Z) - 3D Copy-Paste: Physically Plausible Object Insertion for Monocular 3D
Detection [35.61749990140511]
モノクロ3Dオブジェクト検出における大きな課題は、実際のデータセットにおけるオブジェクトの多様性と量を制限することである。
そこで本研究では,仮想オブジェクトを自動的にコピーし,実際のシーンに貼り付ける,物理的に可塑性な屋内3Dオブジェクト挿入手法を提案する。
論文 参考訳(メタデータ) (2023-12-08T08:44:54Z) - Has Anything Changed? 3D Change Detection by 2D Segmentation Masks [27.15724607877779]
内部空間の3次元スキャンを日常的に取得する。
この情報は、没入型仮想体験で操作するために、ロボットやAR、VRデバイスにとって重要である。
本研究では,シーン内に存在するオブジェクトの事前知識を必要とせずに,オブジェクトの追加,移動,削除を未監視で検出するオブジェクト発見手法を提案する。
論文 参考訳(メタデータ) (2023-12-02T14:30:23Z) - 3D Video Object Detection with Learnable Object-Centric Global
Optimization [65.68977894460222]
対応性に基づく最適化は3次元シーン再構成の基盤となるが、3次元ビデオオブジェクト検出では研究されていない。
オブジェクト中心の時間対応学習と特徴量付きオブジェクトバンドル調整を備えた、エンドツーエンドで最適化可能なオブジェクト検出器であるBA-Detを提案する。
論文 参考訳(メタデータ) (2023-03-27T17:39:39Z) - BundleSDF: Neural 6-DoF Tracking and 3D Reconstruction of Unknown
Objects [89.2314092102403]
モノクロRGBDビデオシーケンスから未知物体の6-DoF追跡をリアルタイムに行う手法を提案する。
視覚的テクスチャがほとんど欠如している場合でも,任意の剛体オブジェクトに対して有効である。
論文 参考訳(メタデータ) (2023-03-24T17:13:49Z) - LocPoseNet: Robust Location Prior for Unseen Object Pose Estimation [69.70498875887611]
LocPoseNetは、見えないオブジェクトに先立って、ロバストにロケーションを学習することができる。
提案手法は,LINEMOD と GenMOP において,既存の作業よりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-11-29T15:21:34Z) - Point2Seq: Detecting 3D Objects as Sequences [58.63662049729309]
我々は、ポイントクラウドから3次元オブジェクトを検出するためのシンプルで効果的なフレームワーク、Point2Seqを提案する。
我々は,各3Dオブジェクトを単語列とみなし,その3Dオブジェクト検出タスクを,自動回帰的に3Dシーンからの単語の復号化として再構成する。
論文 参考訳(メタデータ) (2022-03-25T00:20:31Z) - KeypointDeformer: Unsupervised 3D Keypoint Discovery for Shape Control [64.46042014759671]
keypointdeformerは、自動検出された3dキーポイントによる形状制御の教師なし方式である。
本手法は, 直観的かつ意味論的に形状変形の制御を行う。
論文 参考訳(メタデータ) (2021-04-22T17:59:08Z) - 3D Object Recognition By Corresponding and Quantizing Neural 3D Scene
Representations [29.61554189447989]
本稿では,RGB-D画像からオブジェクトを検出し,その3Dポーズを推測するシステムを提案する。
多くの既存のシステムはオブジェクトを識別し、3Dのポーズを推測できるが、それらは人間のラベルや3Dアノテーションに大きく依存している。
論文 参考訳(メタデータ) (2020-10-30T13:56:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。