論文の概要: Learning to Predict Scene-Level Implicit 3D from Posed RGBD Data
- arxiv url: http://arxiv.org/abs/2306.08671v1
- Date: Wed, 14 Jun 2023 17:59:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-16 17:52:53.567950
- Title: Learning to Predict Scene-Level Implicit 3D from Posed RGBD Data
- Title(参考訳): RGBDデータからシーンレベルインプット3Dを予測する学習
- Authors: Nilesh Kulkarni, Linyi Jin, Justin Johnson, David F. Fouhey
- Abstract要約: 本稿では,RGBDデータから3次元再構成のためのシーンレベルの暗黙関数を学習する手法を提案する。
テスト時には,これまで見えなかったRGB画像を,暗黙の関数によるシーンの3次元再構成にマッピングする。
- 参考スコア(独自算出の注目度): 27.99789694038377
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: We introduce a method that can learn to predict scene-level implicit
functions for 3D reconstruction from posed RGBD data. At test time, our system
maps a previously unseen RGB image to a 3D reconstruction of a scene via
implicit functions. While implicit functions for 3D reconstruction have often
been tied to meshes, we show that we can train one using only a set of posed
RGBD images. This setting may help 3D reconstruction unlock the sea of
accelerometer+RGBD data that is coming with new phones. Our system, D2-DRDF,
can match and sometimes outperform current methods that use mesh supervision
and shows better robustness to sparse data.
- Abstract(参考訳): 本稿では,RGBDデータから3次元再構成のためのシーンレベルの暗黙関数を学習する手法を提案する。
テスト時には,これまで見えなかったRGB画像を,暗黙の関数によるシーンの3次元再構成にマッピングする。
3次元再構成のための暗黙の関数はメッシュに結びついていることが多いが,RGBD画像のみを用いてトレーニングできることを示す。
この設定は、3Dリコンストラクションが加速度計+RGBDの海を解き放つのに役立つかもしれない。
当社のシステムであるD2-DRDFは,メッシュ監視を用いた現在の手法に適合し,時には優れ,スパースデータの堅牢性も向上する。
関連論文リスト
- Memory-based Adapters for Online 3D Scene Perception [71.71645534899905]
従来の3Dシーン認識手法はオフラインである。
本稿では,3次元シーン認識モデルのバックボーンのためのアダプタベースのプラグアンドプレイモジュールを提案する。
私たちのアダプタは、さまざまなタスクのメインストリームのオフラインアーキテクチャに簡単に挿入でき、オンラインタスクのパフォーマンスを大幅に向上できます。
論文 参考訳(メタデータ) (2024-03-11T17:57:41Z) - MobileBrick: Building LEGO for 3D Reconstruction on Mobile Devices [78.20154723650333]
高品質な3次元地下構造は3次元物体再構成評価に不可欠である。
本稿では,モバイルデバイスを用いた新しいマルチビューRGBDデータセットを提案する。
我々は,ハイエンド3Dスキャナーを使わずに,精密な3次元地下構造が得られる。
論文 参考訳(メタデータ) (2023-03-03T14:02:50Z) - BS3D: Building-scale 3D Reconstruction from RGB-D Images [25.604775584883413]
本稿では,消費者向け深度カメラを用いた大規模3次元再構築のための使い易いフレームワークを提案する。
複雑で高価な買収設定とは異なり、当社のシステムはクラウドソーシングを可能にする。
論文 参考訳(メタデータ) (2023-01-03T11:46:14Z) - RayTran: 3D pose estimation and shape reconstruction of multiple objects
from videos with ray-traced transformers [41.499325832227626]
RGBビデオからの多目的3D再構成のためのトランスフォーマーベースニューラルネットワークアーキテクチャを提案する。
我々は、画像形成過程に関する知識を活用して、注意重み行列を著しく分散させる。
従来の手法と比較して、アーキテクチャは単一ステージであり、エンドツーエンドのトレーニングが可能である。
論文 参考訳(メタデータ) (2022-03-24T18:49:12Z) - 3D-to-2D Distillation for Indoor Scene Parsing [78.36781565047656]
大規模3次元データリポジトリから抽出した3次元特徴を有効活用し,RGB画像から抽出した2次元特徴を向上する手法を提案する。
まず,事前学習した3Dネットワークから3D知識を抽出して2Dネットワークを監督し,トレーニング中の2D特徴からシミュレーションされた3D特徴を学習する。
次に,2次元の正規化方式を設計し,2次元特徴と3次元特徴のキャリブレーションを行った。
第3に,非ペアの3dデータを用いたトレーニングのフレームワークを拡張するために,意味を意識した対向的トレーニングモデルを設計した。
論文 参考訳(メタデータ) (2021-04-06T02:22:24Z) - SceneGraphFusion: Incremental 3D Scene Graph Prediction from RGB-D
Sequences [76.28527350263012]
rgb-dフレームのシーケンスを与えられた3次元環境から意味的シーングラフを漸進的に構築する手法を提案する。
我々は、グラフニューラルネットワークを用いて、プリミティブシーンコンポーネントからpointnet機能を集約する。
提案手法は,35hzで動作する他の3dセマンティクスおよびパンオプティカルセグメンテーション法と同等の精度で,高いマージンで3dシーングラフ予測手法を上回る。
論文 参考訳(メタデータ) (2021-03-27T13:00:36Z) - Refer-it-in-RGBD: A Bottom-up Approach for 3D Visual Grounding in RGBD
Images [69.5662419067878]
RGBD画像における接地参照表現は新たな分野である。
本稿では,参照する物体が閉塞により部分的にスキャンされる場合が多い単視点rgbd画像における3次元視覚グランド化の新たな課題を提案する。
提案手法はまず,RGBD画像内の関連領域をローカライズするヒートマップを生成するために,下層の言語と視覚的特徴を融合させる。
次に、ヒートマップに基づく適応的特徴学習を行い、他のビジオ言語融合とオブジェクトレベルのマッチングを行い、最後に参照したオブジェクトを接地する。
論文 参考訳(メタデータ) (2021-03-14T11:18:50Z) - Atlas: End-to-End 3D Scene Reconstruction from Posed Images [13.154808583020229]
RGB画像の集合からTSDF(truncated signed distance function)を直接回帰することにより,シーンのエンドツーエンドな3D再構成手法を提案する。
2D CNNは、各画像から特徴を独立して抽出し、その特徴をバックプロジェクションし、ボクセルボリュームに蓄積する。
3D CNNは蓄積した特徴を洗練し、TSDF値を予測する。
論文 参考訳(メタデータ) (2020-03-23T17:59:15Z) - Implicit Functions in Feature Space for 3D Shape Reconstruction and
Completion [53.885984328273686]
Implicit Feature Networks (IF-Nets) は連続的な出力を提供し、複数のトポロジを扱える。
IF-NetsはShapeNetにおける3次元オブジェクト再構成における先行作業よりも明らかに優れており、より正確な3次元人間の再構成が得られる。
論文 参考訳(メタデータ) (2020-03-03T11:14:29Z) - Frustum VoxNet for 3D object detection from RGB-D or Depth images [1.14219428942199]
RGB-Dまたは深度のみの点群からの新しい3次元物体検出システムについて述べる。
我々のシステムはまず2Dで物体を検知する(RGBでも擬似RGBでも)。
我々のシステムの主な新規性は、酸化するフラストラムのどの部分(3D提案)を決定づけることである。
論文 参考訳(メタデータ) (2019-10-12T04:06:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。