論文の概要: Objects Can Move: 3D Change Detection by Geometric Transformation
Constistency
- arxiv url: http://arxiv.org/abs/2208.09870v1
- Date: Sun, 21 Aug 2022 11:32:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-23 13:22:22.298549
- Title: Objects Can Move: 3D Change Detection by Geometric Transformation
Constistency
- Title(参考訳): オブジェクトは動く:幾何変換による3次元変化検出
- Authors: Aikaterini Adam, Torsten Sattler, Konstantinos Karantzalos and Tomas
Pajdla
- Abstract要約: AR/VRアプリケーションとロボットは、シーンがいつ変わったかを知る必要がある。
本研究では,シーン変化のみに基づく3次元オブジェクト探索手法を提案する。
我々の手法は、オブジェクトが何であるかの仮定を符号化する必要はないが、その代わりに、一貫性のある動きを利用してオブジェクトを発見する。
- 参考スコア(独自算出の注目度): 32.07372152138814
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: AR/VR applications and robots need to know when the scene has changed. An
example is when objects are moved, added, or removed from the scene. We propose
a 3D object discovery method that is based only on scene changes. Our method
does not need to encode any assumptions about what is an object, but rather
discovers objects by exploiting their coherent move. Changes are initially
detected as differences in the depth maps and segmented as objects if they
undergo rigid motions. A graph cut optimization propagates the changing labels
to geometrically consistent regions. Experiments show that our method achieves
state-of-the-art performance on the 3RScan dataset against competitive
baselines. The source code of our method can be found at
https://github.com/katadam/ObjectsCanMove.
- Abstract(参考訳): AR/VRアプリケーションとロボットは、シーンがいつ変わったかを知る必要がある。
例えば、オブジェクトがシーンから移動、追加、削除される場合です。
本研究では,シーン変化のみに基づく3次元オブジェクト探索手法を提案する。
提案手法では,オブジェクトとは何かという仮定をエンコードする必要はなく,そのコヒーレントな動きを利用してオブジェクトを発見する。
変化はまず深度マップの相違として検出され、剛体運動を受けると物体として分割される。
グラフカット最適化は、変化ラベルを幾何学的に一貫した領域に伝播する。
実験により,3rscanデータセットにおける競合ベースラインに対する最先端性能が得られた。
このメソッドのソースコードはhttps://github.com/katadam/objectscanmoveにあります。
関連論文リスト
- PickScan: Object discovery and reconstruction from handheld interactions [99.99566882133179]
シーンの3次元表現を再構成する対話誘導型クラス依存型手法を開発した。
我々の主な貢献は、操作対象のインタラクションを検出し、操作対象のマスクを抽出する新しいアプローチである。
相互作用ベースとクラス非依存のベースラインであるCo-Fusionと比較すると、これはシャムファー距離の73%の減少に相当する。
論文 参考訳(メタデータ) (2024-11-17T23:09:08Z) - 3DGS-CD: 3D Gaussian Splatting-based Change Detection for Physical Object Rearrangement [2.2122801766964795]
3DGS-CDは3Dシーンにおける物体の物理的配置を検出する最初の3Dガウス散乱(3DGS)に基づく手法である。
提案手法では,異なる時間に撮影された2つの不整合画像を比較して3次元オブジェクトレベルの変化を推定する。
本手法は,18秒以内のスパース・ポスト・チェンジ画像を用いて,1枚の新しい画像のみを用いて,散在する環境の変化を検出できる。
論文 参考訳(メタデータ) (2024-11-06T07:08:41Z) - A3D: Does Diffusion Dream about 3D Alignment? [73.97853402817405]
幾何学的アライメントの観点からテキスト駆動型3D生成の問題に取り組む。
テキストプロンプトのセットが与えられたら、意味的に対応する部分同士が整列したオブジェクトの集合を生成することを目指している。
我々は、これらのオブジェクトを共通の潜在空間に埋め込み、これらのオブジェクト間の連続的な遷移を最適化することを提案する。
論文 参考訳(メタデータ) (2024-06-21T09:49:34Z) - GeoDiffuser: Geometry-Based Image Editing with Diffusion Models [7.7669649283012]
ゼロショット最適化に基づく2次元および3次元画像に基づくオブジェクト編集機能を1つの手法に統合するGeoDiffuserを提案する。
これらの変換は拡散モデルの注意層に直接組み込むことができ、暗黙的に編集操作を行うことができる。
GeoDiffuserは、オブジェクト翻訳、3Dローテーション、削除などの一般的な2Dおよび3D編集を実行することができる。
論文 参考訳(メタデータ) (2024-04-22T17:58:36Z) - 3D Copy-Paste: Physically Plausible Object Insertion for Monocular 3D
Detection [35.61749990140511]
モノクロ3Dオブジェクト検出における大きな課題は、実際のデータセットにおけるオブジェクトの多様性と量を制限することである。
そこで本研究では,仮想オブジェクトを自動的にコピーし,実際のシーンに貼り付ける,物理的に可塑性な屋内3Dオブジェクト挿入手法を提案する。
論文 参考訳(メタデータ) (2023-12-08T08:44:54Z) - Has Anything Changed? 3D Change Detection by 2D Segmentation Masks [27.15724607877779]
内部空間の3次元スキャンを日常的に取得する。
この情報は、没入型仮想体験で操作するために、ロボットやAR、VRデバイスにとって重要である。
本研究では,シーン内に存在するオブジェクトの事前知識を必要とせずに,オブジェクトの追加,移動,削除を未監視で検出するオブジェクト発見手法を提案する。
論文 参考訳(メタデータ) (2023-12-02T14:30:23Z) - 3D Video Object Detection with Learnable Object-Centric Global
Optimization [65.68977894460222]
対応性に基づく最適化は3次元シーン再構成の基盤となるが、3次元ビデオオブジェクト検出では研究されていない。
オブジェクト中心の時間対応学習と特徴量付きオブジェクトバンドル調整を備えた、エンドツーエンドで最適化可能なオブジェクト検出器であるBA-Detを提案する。
論文 参考訳(メタデータ) (2023-03-27T17:39:39Z) - BundleSDF: Neural 6-DoF Tracking and 3D Reconstruction of Unknown
Objects [89.2314092102403]
モノクロRGBDビデオシーケンスから未知物体の6-DoF追跡をリアルタイムに行う手法を提案する。
視覚的テクスチャがほとんど欠如している場合でも,任意の剛体オブジェクトに対して有効である。
論文 参考訳(メタデータ) (2023-03-24T17:13:49Z) - LocPoseNet: Robust Location Prior for Unseen Object Pose Estimation [69.70498875887611]
LocPoseNetは、見えないオブジェクトに先立って、ロバストにロケーションを学習することができる。
提案手法は,LINEMOD と GenMOP において,既存の作業よりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-11-29T15:21:34Z) - KeypointDeformer: Unsupervised 3D Keypoint Discovery for Shape Control [64.46042014759671]
keypointdeformerは、自動検出された3dキーポイントによる形状制御の教師なし方式である。
本手法は, 直観的かつ意味論的に形状変形の制御を行う。
論文 参考訳(メタデータ) (2021-04-22T17:59:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。