論文の概要: What's Behind the Couch? Directed Ray Distance Functions (DRDF) for 3D
Scene Reconstruction
- arxiv url: http://arxiv.org/abs/2112.04481v1
- Date: Wed, 8 Dec 2021 18:59:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-09 16:41:28.449048
- Title: What's Behind the Couch? Directed Ray Distance Functions (DRDF) for 3D
Scene Reconstruction
- Title(参考訳): ソファの後ろに何があるの?
3次元シーン再構成のための指向性光距離関数(DRDF)
- Authors: Nilesh Kulkarni, Justin Johnson, David F. Fouhey
- Abstract要約: 未確認のRGB画像から隠蔽領域を含むシーンレベルの3D再構成手法を提案する。
我々は,この関数を予測するために深層ネットワークをトレーニングし,Matterport3D,3D Front,ScanNetの他の手法よりも優れていることを示す。
- 参考スコア(独自算出の注目度): 32.29555101436657
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: We present an approach for scene-level 3D reconstruction, including occluded
regions, from an unseen RGB image. Our approach is trained on real 3D scans and
images. This problem has proved difficult for multiple reasons; Real scans are
not watertight, precluding many methods; distances in scenes require reasoning
across objects (making it even harder); and, as we show, uncertainty about
surface locations motivates networks to produce outputs that lack basic
distance function properties. We propose a new distance-like function that can
be computed on unstructured scans and has good behavior under uncertainty about
surface location. Computing this function over rays reduces the complexity
further. We train a deep network to predict this function and show it
outperforms other methods on Matterport3D, 3D Front, and ScanNet.
- Abstract(参考訳): 未確認のRGB画像から隠蔽領域を含むシーンレベルの3D再構成手法を提案する。
われわれのアプローチは、実際の3Dスキャンと画像に基づいて訓練されている。
この問題は複数の理由により困難である: 実際のスキャンは水密ではなく、多くの方法が先行している; シーン内の距離は物体間の推論を必要とする(さらに難しい); そして、表面の位置に関する不確かさは、基本的な距離関数特性を欠いた出力を生成するのにネットワークを動機付ける。
本研究では,非構造スキャンで計算可能で,表面位置の不確かさ下での良好な挙動を持つ新しい距離関数を提案する。
この関数を線で計算すると複雑さはさらに減少する。
我々は,この関数を予測するために深層ネットワークをトレーニングし,Matterport3D,3D Front,ScanNetの他の手法よりも優れていることを示す。
関連論文リスト
- Inverse Neural Rendering for Explainable Multi-Object Tracking [35.072142773300655]
我々はRGBカメラから3Dマルチオブジェクト追跡をEmphInverse Rendering (IR)問題として再放送した。
我々は、本質的に形状と外観特性を歪ませる生成潜在空間上の画像損失を最適化する。
本手法の一般化とスケーリング能力は,合成データのみから生成前を学習することで検証する。
論文 参考訳(メタデータ) (2024-04-18T17:37:53Z) - MonoNeRD: NeRF-like Representations for Monocular 3D Object Detection [31.58403386994297]
我々は,高密度な3次元形状と占有度を推定できる新しい検出フレームワークMonoNeRDを提案する。
具体的には、SDF(Signed Distance Function)を用いてシーンをモデル化し、密集した3D表現の作成を容易にする。
我々の知る限り、この研究は初めてM3Dのボリュームレンダリングを導入し、画像に基づく3D知覚のための暗黙的な再構築の可能性を示す。
論文 参考訳(メタデータ) (2023-08-18T09:39:52Z) - Neural 3D Scene Reconstruction from Multiple 2D Images without 3D
Supervision [41.20504333318276]
平面制約下でのスパース深度を用いてシーンを3次元の監督なしに再構成する新しいニューラル再構成法を提案する。
シーンを表すために,符号付き距離関数場,色場,確率場を導入する。
我々は、これらのフィールドを最適化し、2D画像で識別可能な光線マーキングを監督することでシーンを再構築する。
論文 参考訳(メタデータ) (2023-06-30T13:30:48Z) - 3D Small Object Detection with Dynamic Spatial Pruning [62.72638845817799]
本稿では,3次元小物体検出のための効率的な特徴解析手法を提案する。
空間分解能の高いDSPDet3Dというマルチレベル3次元検出器を提案する。
ほぼ全ての物体を検知しながら、4500k以上のポイントからなる建物全体を直接処理するには2秒もかからない。
論文 参考訳(メタデータ) (2023-05-05T17:57:04Z) - Neural 3D Scene Reconstruction with the Manhattan-world Assumption [58.90559966227361]
本稿では,多視点画像から3次元屋内シーンを再構築する課題について述べる。
平面的制約は、最近の暗黙の神経表現に基づく再構成手法に便利に組み込むことができる。
提案手法は, 従来の手法よりも3次元再構成品質に優れていた。
論文 参考訳(メタデータ) (2022-05-05T17:59:55Z) - FIRe: Fast Inverse Rendering using Directional and Signed Distance
Functions [97.5540646069663]
指向性距離関数(DDF)と呼ばれる新しいニューラルシーン表現を導入する。
DDFは単位球上で定義され、任意の方向に沿って表面までの距離を予測する。
提案手法はDDFに基づいて,提案した深度マップから3次元形状を再構成する高速アルゴリズム (FIRe) を提案する。
論文 参考訳(メタデータ) (2022-03-30T13:24:04Z) - 3D Human Mesh Regression with Dense Correspondence [95.92326689172877]
単一の2D画像から人体の3Dメッシュを推定することは、拡張現実や人間とロボットのインタラクションといった多くのアプリケーションにおいて重要なタスクである。
前者は畳み込みニューラルネットワーク(CNN)を用いて抽出した大域的画像特徴から3Dメッシュを再構成した。
本稿では,メッシュとUV空間の局所像特徴との密接な対応性を明確に確立する,DecoMRというモデルフリーな3次元メッシュ推定フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-10T08:50:53Z) - Implicit Functions in Feature Space for 3D Shape Reconstruction and
Completion [53.885984328273686]
Implicit Feature Networks (IF-Nets) は連続的な出力を提供し、複数のトポロジを扱える。
IF-NetsはShapeNetにおける3次元オブジェクト再構成における先行作業よりも明らかに優れており、より正確な3次元人間の再構成が得られる。
論文 参考訳(メタデータ) (2020-03-03T11:14:29Z) - DSGN: Deep Stereo Geometry Network for 3D Object Detection [79.16397166985706]
画像ベースとLiDARベースの3Dオブジェクト検出器の間には大きなパフォーマンスギャップがある。
我々の手法であるDeep Stereo Geometry Network (DSGN)は,このギャップを著しく低減する。
初めて、シンプルで効果的な1段ステレオベースの3D検出パイプラインを提供する。
論文 参考訳(メタデータ) (2020-01-10T11:44:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。