論文の概要: Reconstructing Small 3D Objects in front of a Textured Background
- arxiv url: http://arxiv.org/abs/2105.11352v1
- Date: Mon, 24 May 2021 15:36:33 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-25 18:40:30.476208
- Title: Reconstructing Small 3D Objects in front of a Textured Background
- Title(参考訳): テクスチャ背景の小さな3次元物体の再構成
- Authors: Petr Hruby and Tomas Pajdla
- Abstract要約: テクスチャ化された背景の前を移動する小さな物体の完全な3次元再構成手法を提案する。
これは運動から多体構造の特定のバリエーションであり、2つの物体のみに特化している。
実物を用いた実験では, 両面から3次元オブジェクトを再構成する際に, 現実的な利点があることが示されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a technique for a complete 3D reconstruction of small objects
moving in front of a textured background. It is a particular variation of
multibody structure from motion, which specializes to two objects only. The
scene is captured in several static configurations between which the relative
pose of the two objects may change. We reconstruct every static configuration
individually and segment the points locally by finding multiple poses of
cameras that capture the scene's other configurations. Then, the local
segmentation results are combined, and the reconstructions are merged into the
resulting model of the scene. In experiments with real artifacts, we show that
our approach has practical advantages when reconstructing 3D objects from all
sides. In this setting, our method outperforms the state-of-the-art. We
integrate our method into the state of the art 3D reconstruction pipeline
COLMAP.
- Abstract(参考訳): テクスチャ化された背景の前を移動する小さな物体の完全な3次元再構成手法を提案する。
運動から多体構造の特定の変化であり、2つの物体のみを専門とする。
シーンは2つのオブジェクトの相対的なポーズが変化するいくつかの静的な設定でキャプチャされる。
各静的な構成を個別に再構築し、シーンの他の構成をキャプチャする複数のカメラのポーズを見つけ、ポイントを局所的に分割する。
そして、局所的なセグメンテーション結果を組み合わせて、その復元結果をシーンのモデルにマージする。
実物を用いた実験では, 両面から3次元オブジェクトを再構成する際に, 現実的な利点があることが示されている。
この設定では、我々の手法は最先端の手法よりも優れている。
我々はこの手法を3D再構築パイプラインCOLMAPの状態に統合する。
関連論文リスト
- Floating No More: Object-Ground Reconstruction from a Single Image [33.34421517827975]
本研究では,3次元物体形状の再構成を目的とした新しい作業であるORG(Object Restruction with Ground)を紹介する。
提案手法では,2つのコンパクトなピクセルレベル表現を用いて,カメラ,オブジェクト,グラウンドの関係を表現している。
論文 参考訳(メタデータ) (2024-07-26T17:59:56Z) - Part123: Part-aware 3D Reconstruction from a Single-view Image [54.589723979757515]
Part123は、一視点画像から部分認識された3D再構成のための新しいフレームワークである。
ニューラルレンダリングフレームワークにコントラスト学習を導入し、部分認識機能空間を学習する。
クラスタリングに基づくアルゴリズムも開発され、再構成されたモデルから3次元部分分割結果を自動的に導出する。
論文 参考訳(メタデータ) (2024-05-27T07:10:21Z) - Disentangled 3D Scene Generation with Layout Learning [109.03233745767062]
本稿では,コンポーネントオブジェクトに絡み合った3Dシーンを生成する手法を提案する。
私たちの重要な洞察は、オブジェクトは空間的に再構成された場合、同じシーンの有効な構成を生成する3Dシーンの一部を見つけることで発見できるということです。
単純さにもかかわらず、我々のアプローチは個々のオブジェクトに3Dシーンを生成することに成功している。
論文 参考訳(メタデータ) (2024-02-26T18:54:15Z) - Towards High-Fidelity Single-view Holistic Reconstruction of Indoor
Scenes [50.317223783035075]
単視点画像から総合的な3次元屋内シーンを再構築するための新しい枠組みを提案する。
詳細なオブジェクト再構成のためのインスタンス整列型暗黙関数(InstPIFu)を提案する。
私たちのコードとモデルは公開されます。
論文 参考訳(メタデータ) (2022-07-18T14:54:57Z) - Deep Permutation Equivariant Structure from Motion [38.68492294795315]
既存のディープメソッドはステレオおよびマルチビューステレオ設定で高精度な3D再構成を生成する。
監視されていない再投影損失を最小限に抑え、カメラパラメータとシーン構造の両方を回復するニューラルネットワークアーキテクチャを提案する。
本手法は,内部校正と非校正設定の両方において,様々なデータセット上で実験を行い,従来の手法と同等の姿勢と構造を正確に復元することを示す。
論文 参考訳(メタデータ) (2021-04-14T08:50:06Z) - A Divide et Impera Approach for 3D Shape Reconstruction from Multiple
Views [49.03830902235915]
物体の3次元形状を1つまたは複数の画像から推定することは、最近のディープラーニングによるブレークスルーによって人気を集めている。
本稿では,与えられた視点からの可視情報を統合することで,視点変化の再構築に頼ることを提案する。
提案手法を検証するために,相対的なポーズ推定と3次元形状再構成の観点から,ShapeNet参照ベンチマークの総合評価を行った。
論文 参考訳(メタデータ) (2020-11-17T09:59:32Z) - AutoSweep: Recovering 3D Editable Objectsfrom a Single Photograph [54.701098964773756]
セマンティックな部分で3Dオブジェクトを復元し、直接編集することを目的としている。
我々の研究は、一般化された立方体と一般化されたシリンダーという、2種類の原始的な形状の物体を回収する試みである。
提案アルゴリズムは,高品質な3Dモデルを復元し,既存手法のインスタンスセグメンテーションと3D再構成の両方で性能を向上する。
論文 参考訳(メタデータ) (2020-05-27T12:16:24Z) - CoReNet: Coherent 3D scene reconstruction from a single RGB image [43.74240268086773]
我々は1つのRBG画像のみを入力として与えられた1つの物体の形状を再構築する深層学習の進歩の上に構築する。
提案する3つの拡張は,(1)局所的な2次元情報を物理的に正しい方法で出力3Dボリュームに伝播するレイトレーシングスキップ接続,(2)翻訳同変モデルの構築を可能にするハイブリッド3Dボリューム表現,(3)全体オブジェクトの形状を捉えるために調整された再構成損失である。
すべての物体がカメラに対して一貫した1つの3次元座標フレームに居住し、3次元空間内では交差しないコヒーレントな再構成を実現する。
論文 参考訳(メタデータ) (2020-04-27T17:53:07Z) - Self-supervised Single-view 3D Reconstruction via Semantic Consistency [142.71430568330172]
対象物の形状, テクスチャ, カメラポーズを予測できる, 自己監督型, 単視点3D再構成モデルを学習する。
提案手法では,手動で注釈付けしたキーポイント,オブジェクトのマルチビューイメージ,あるいは事前の3Dテンプレートなど,3Dの監督を必要としない。
論文 参考訳(メタデータ) (2020-03-13T20:29:01Z) - Total3DUnderstanding: Joint Layout, Object Pose and Mesh Reconstruction
for Indoor Scenes from a Single Image [24.99186733297264]
本研究では,単一画像から部屋レイアウト,オブジェクト境界ボックス,メッシュを共同で再構築するエンド・ツー・エンドのソリューションを提案する。
本手法は,3成分からなる粗大な階層構造を提案する。
SUN RGB-D および Pix3D データセットを用いた実験により,本手法が既存手法より一貫して優れていることを示す。
論文 参考訳(メタデータ) (2020-02-27T16:00:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。