論文の概要: Towards Non-Line-of-Sight Photography
- arxiv url: http://arxiv.org/abs/2109.07783v1
- Date: Thu, 16 Sep 2021 08:07:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-17 16:30:12.096830
- Title: Towards Non-Line-of-Sight Photography
- Title(参考訳): 非視線撮影へ向けて
- Authors: Jiayong Peng, Fangzhou Mu, Ji Hyun Nam, Siddeshwar Raghavan, Yin Li,
Andreas Velten, and Zhiwei Xiong
- Abstract要約: 非視線イメージング(NLOS)は、隠された物体からの多重バウンス間接反射を捉えることに基づいている。
アクティブなNLOSイメージングシステムは、シーンを通しての光の飛行時間の捕捉に依存している。
我々はNLOS写真と呼ばれる新しい問題定式化を提案し、この欠陥に特に対処する。
- 参考スコア(独自算出の注目度): 48.491977359971855
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Non-line-of-sight (NLOS) imaging is based on capturing the multi-bounce
indirect reflections from the hidden objects. Active NLOS imaging systems rely
on the capture of the time of flight of light through the scene, and have shown
great promise for the accurate and robust reconstruction of hidden scenes
without the need for specialized scene setups and prior assumptions. Despite
that existing methods can reconstruct 3D geometries of the hidden scene with
excellent depth resolution, accurately recovering object textures and
appearance with high lateral resolution remains an challenging problem. In this
work, we propose a new problem formulation, called NLOS photography, to
specifically address this deficiency. Rather than performing an intermediate
estimate of the 3D scene geometry, our method follows a data-driven approach
and directly reconstructs 2D images of a NLOS scene that closely resemble the
pictures taken with a conventional camera from the location of the relay wall.
This formulation largely simplifies the challenging reconstruction problem by
bypassing the explicit modeling of 3D geometry, and enables the learning of a
deep model with a relatively small training dataset. The results are NLOS
reconstructions of unprecedented lateral resolution and image quality.
- Abstract(参考訳): 非視線イメージング(NLOS)は、隠された物体からの多重バウンス間接反射を捉えている。
アクティブなNLOSイメージングシステムは、シーン中を飛行する時の捕捉に依存しており、特別なシーン設定や事前の仮定を必要とせずに、隠れたシーンの正確で堅牢な再構築を約束している。
既存の手法では深度分解能に優れる隠れ場面の3次元形状を再現できるが、被写体のテクスチャや外観を高精度に復元することは難しい課題である。
本研究では,この不足を具体的に解決するために,nlos photography という新しい問題定式化を提案する。
本手法は,3次元シーン形状の中間推定を行うのではなく,データ駆動方式を用いて,従来のリレー壁の位置から撮影した映像とよく似たNLOSシーンの2次元画像を直接再構成する。
この定式化は、3次元幾何学の明示的なモデリングを回避し、比較的小さなトレーニングデータセットを持つ深層モデルの学習を可能にすることで、難解な再構築問題を大いに単純化する。
結果は前例のない解像度と画質のnlos再構成である。
関連論文リスト
- R3D3: Dense 3D Reconstruction of Dynamic Scenes from Multiple Cameras [106.52409577316389]
R3D3は高密度3次元再構成とエゴモーション推定のためのマルチカメラシステムである。
提案手法は,複数のカメラからの時空間情報と単眼深度補正を利用する。
この設計により、困難で動的な屋外環境の密集した一貫した3次元再構成が可能になる。
論文 参考訳(メタデータ) (2023-08-28T17:13:49Z) - FrozenRecon: Pose-free 3D Scene Reconstruction with Frozen Depth Models [67.96827539201071]
本稿では,3次元シーン再構成のための新しいテスト時間最適化手法を提案する。
本手法は5つのゼロショットテストデータセット上で,最先端のクロスデータセット再構築を実現する。
論文 参考訳(メタデータ) (2023-08-10T17:55:02Z) - Shakes on a Plane: Unsupervised Depth Estimation from Unstabilized
Photography [54.36608424943729]
2秒で取得した12メガピクセルのRAWフレームの「長バースト」では,自然手震動のみからの視差情報で高品質のシーン深度を回復できることが示されている。
我々は、長時間バーストデータにニューラルRGB-D表現を適合させるテスト時間最適化手法を考案し、シーン深度とカメラモーションを同時に推定する。
論文 参考訳(メタデータ) (2022-12-22T18:54:34Z) - Multi-View Neural Surface Reconstruction with Structured Light [7.709526244898887]
微分可能レンダリング(DR)に基づく3次元オブジェクト再構成はコンピュータビジョンにおいて活発な研究課題である。
DRに基づく多視点3Dオブジェクト再構成において,構造化光(SL)を用いたアクティブセンシングを導入し,任意のシーンやカメラポーズの未知の形状と外観を学習する。
本手法は, テクスチャレス領域における高い再現精度を実現し, カメラポーズキャリブレーションの労力を削減する。
論文 参考訳(メタデータ) (2022-11-22T03:10:46Z) - Learning to Recover 3D Scene Shape from a Single Image [98.20106822614392]
まず,未知のスケールまで深さを予測し,単一の単眼画像からシフトする2段階フレームワークを提案する。
そして、3dポイントクラウドエンコーダを使って深度シフトと焦点距離を予測し、リアルな3dシーンの形状を復元します。
論文 参考訳(メタデータ) (2020-12-17T02:35:13Z) - Real-time Non-line-of-Sight imaging of dynamic scenes [11.199289771176238]
Non-Line-of-Sight(NLOS)イメージングは、直視線から隠された物体の3次元形状を復元することを目的としている。
過去には、シーンサイズ、キャプチャ速度、再構成品質を制限したマルチバウンス信号の弱さに悩まされてきた。
本研究では,SPAD(Single-Photon Avalanche Diode)アレイ検出器の合計28ピクセルと,特に拡張されたファザーフィールド再構成アルゴリズムを組み合わせることで,非反射性NLOSシーンのライブリアルタイム映像を再構成可能であることを示す。
論文 参考訳(メタデータ) (2020-10-24T01:40:06Z) - Reconstruct, Rasterize and Backprop: Dense shape and pose estimation
from a single image [14.9851111159799]
本稿では,1枚の画像から6-DoFポーズとともに高密度物体再構成を行うシステムを提案する。
我々は、カメラフレームの3D再構成でループを閉じるために、差別化可能なレンダリング(特にロボティクス)の最近の進歩を活用している。
論文 参考訳(メタデータ) (2020-04-25T20:53:43Z) - Deep 3D Capture: Geometry and Reflectance from Sparse Multi-View Images [59.906948203578544]
本稿では,任意の物体の高品質な形状と複雑な空間変化を持つBRDFを再構成する学習に基づく新しい手法を提案する。
まず、深層多視点ステレオネットワークを用いて、ビューごとの深度マップを推定する。
これらの深度マップは、異なるビューを粗く整列するために使用される。
本稿では,新しい多視点反射率推定ネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-03-27T21:28:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。