論文の概要: Automatically Annotating Indoor Images with CAD Models via RGB-D Scans
- arxiv url: http://arxiv.org/abs/2212.11796v1
- Date: Thu, 22 Dec 2022 15:27:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-23 14:52:30.558493
- Title: Automatically Annotating Indoor Images with CAD Models via RGB-D Scans
- Title(参考訳): RGB-DスキャンによるCADモデルによる室内画像の自動アノテーション
- Authors: Stefan Ainetter, Sinisa Stekovic, Friedrich Fraundorfer, Vincent
Lepetit
- Abstract要約: 本稿では,RGB-Dスキャンに頼って,オブジェクトのCADモデルを用いた室内シーンの自動アノテート手法を提案する。
提案手法は,手動アノテーションと同程度の精度のアノテーションを検索し,手動で3Dデータに注釈を付けることなく,基礎的な真実として利用することができることを示す。
- 参考スコア(独自算出の注目度): 36.52980906432878
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present an automatic method for annotating images of indoor scenes with
the CAD models of the objects by relying on RGB-D scans. Through a visual
evaluation by 3D experts, we show that our method retrieves annotations that
are at least as accurate as manual annotations, and can thus be used as ground
truth without the burden of manually annotating 3D data. We do this using an
analysis-by-synthesis approach, which compares renderings of the CAD models
with the captured scene. We introduce a 'cloning procedure' that identifies
objects that have the same geometry, to annotate these objects with the same
CAD models. This allows us to obtain complete annotations for the ScanNet
dataset and the recent ARKitScenes dataset.
- Abstract(参考訳): 本稿では,RGB-Dスキャンに頼って,オブジェクトのCADモデルを用いた室内シーンの自動アノテート手法を提案する。
3Dの専門家による視覚的評価により,本手法は手動アノテーションと同程度の精度のアノテーションを検索し,手動で3Dデータに注釈を付けることなく,基礎的な真実として利用できることを示す。
我々は、CADモデルのレンダリングとキャプチャされたシーンを比較した分析バイシンセシス手法を用いてこれを行う。
我々は,同じ形状のオブジェクトを識別する「閉鎖手順」を導入し,これらのオブジェクトを同じCADモデルでアノテートする。
これにより、ScanNetデータセットと最近のARKitScenesデータセットの完全なアノテーションを得ることができる。
関連論文リスト
- Sparse Multi-Object Render-and-Compare [33.97243145891282]
一つの画像から静的な物体の3次元形状とポーズを再構築することは、様々な産業にとって重要な課題である。
直接3D形状を予測することで、非現実的で、過度に滑らかになったり、刻まれた形になる。
CADモデルを取得することで、現実的な形状が保証されるが、堅牢で正確なアライメントが必要である。
論文 参考訳(メタデータ) (2023-10-17T12:01:32Z) - Visual Localization using Imperfect 3D Models from the Internet [54.731309449883284]
本稿では,3次元モデルにおける欠陥が局所化精度に与える影響について検討する。
インターネットから得られる3Dモデルは、容易に表現できるシーン表現として有望であることを示す。
論文 参考訳(メタデータ) (2023-04-12T16:15:05Z) - Templates for 3D Object Pose Estimation Revisited: Generalization to New
Objects and Robustness to Occlusions [79.34847067293649]
本稿では,新しい物体を認識でき,RGB画像の3次元ポーズを部分閉塞下でも推定できる手法を提案する。
ローカルオブジェクト表現を学習するために、トレーニングオブジェクトの小さなセットに依存します。
LINEMOD と Occlusion-LINEMOD のデータセットを再トレーニングせずに一般化を示すのはこれが初めてである。
論文 参考訳(メタデータ) (2022-03-31T17:50:35Z) - Weakly-Supervised End-to-End CAD Retrieval to Scan Objects [25.41908065938424]
本稿では,意味的および構造的に類似したCADモデルをクエリ3Dスキャンシーンに検索する手法を提案する。
提案手法では,トップモデルとスキャンクエリとの幾何的および知覚的類似性により,エンド・ツー・エンドのトレーニングを可能にする。
論文 参考訳(メタデータ) (2022-03-24T06:30:47Z) - Patch2CAD: Patchwise Embedding Learning for In-the-Wild Shape Retrieval
from a Single Image [58.953160501596805]
本稿では,2次元画像と3次元CADモデルの結合埋め込み空間をパッチワイズで構築する手法を提案する。
我々のアプローチは、CADが正確に一致しない実世界のシナリオにおける最先端技術よりも堅牢である。
論文 参考訳(メタデータ) (2021-08-20T20:58:52Z) - 'CADSketchNet' -- An Annotated Sketch dataset for 3D CAD Model Retrieval
with Deep Neural Networks [0.8155575318208631]
本稿では,ディープラーニングに基づく3次元CADモデルの検索システム構築に適したデータセットの開発を目的とする。
また,スケッチ画像を入力クエリとして受信する3次元CADモデルの検索システムや検索エンジンの性能を評価することを目的とする。
論文 参考訳(メタデータ) (2021-07-13T16:10:16Z) - 3D Object Detection and Pose Estimation of Unseen Objects in Color
Images with Local Surface Embeddings [35.769234123059086]
本研究では, 画像中のオブジェクトの3次元ポーズを, テクスチャのないCADモデルでのみ検出し, 推定する手法を提案する。
我々のアプローチはディープラーニングと3D幾何を組み合わせており、CADモデルと入力画像とを一致させるために、局所的な3D幾何の埋め込みに依存している。
我々は,Mask-RCNNをクラスに依存しない方法で,再学習せずに新しい物体を検出できることを示す。
論文 参考訳(メタデータ) (2020-10-08T15:57:06Z) - Mask2CAD: 3D Shape Prediction by Learning to Segment and Retrieve [54.054575408582565]
本稿では,既存の3次元モデルの大規模データセットを活用し,画像中の物体の3次元構造を理解することを提案する。
本稿では,実世界の画像と検出対象を共同で検出するMask2CADについて,最も類似したCADモデルとそのポーズを最適化する。
これにより、画像内のオブジェクトのクリーンで軽量な表現が生成される。
論文 参考訳(メタデータ) (2020-07-26T00:08:37Z) - DOPS: Learning to Detect 3D Objects and Predict their 3D Shapes [54.239416488865565]
LIDARデータに対する高速な1段3次元物体検出法を提案する。
我々の手法の中核となる新規性は高速かつシングルパスアーキテクチャであり、どちらも3次元の物体を検出し、それらの形状を推定する。
提案手法は,ScanNetシーンのオブジェクト検出で5%,オープンデータセットでは3.4%の精度で結果が得られた。
論文 参考訳(メタデータ) (2020-04-02T17:48:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。