論文の概要: Real-time Non-line-of-Sight imaging of dynamic scenes
- arxiv url: http://arxiv.org/abs/2010.12737v1
- Date: Sat, 24 Oct 2020 01:40:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-03 13:20:38.854051
- Title: Real-time Non-line-of-Sight imaging of dynamic scenes
- Title(参考訳): ダイナミックシーンのリアルタイム非視線イメージング
- Authors: Ji Hyun Nam, Eric Brandt, Sebastian Bauer, Xiaochun Liu, Eftychios
Sifakis, Andreas Velten
- Abstract要約: Non-Line-of-Sight(NLOS)イメージングは、直視線から隠された物体の3次元形状を復元することを目的としている。
過去には、シーンサイズ、キャプチャ速度、再構成品質を制限したマルチバウンス信号の弱さに悩まされてきた。
本研究では,SPAD(Single-Photon Avalanche Diode)アレイ検出器の合計28ピクセルと,特に拡張されたファザーフィールド再構成アルゴリズムを組み合わせることで,非反射性NLOSシーンのライブリアルタイム映像を再構成可能であることを示す。
- 参考スコア(独自算出の注目度): 11.199289771176238
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Non-Line-of-Sight (NLOS) imaging aims at recovering the 3D geometry of
objects that are hidden from the direct line of sight. In the past, this method
has suffered from the weak available multibounce signal limiting scene size,
capture speed, and reconstruction quality. While algorithms capable of
reconstructing scenes at several frames per second have been demonstrated,
real-time NLOS video has only been demonstrated for retro-reflective objects
where the NLOS signal strength is enhanced by 4 orders of magnitude or more.
Furthermore, it has also been noted that the signal-to-noise ratio of
reconstructions in NLOS methods drops quickly with distance and past
reconstructions, therefore, have been limited to small scenes with depths of
few meters. Actual models of noise and resolution in the scene have been
simplistic, ignoring many of the complexities of the problem. We show that SPAD
(Single-Photon Avalanche Diode) array detectors with a total of just 28 pixels
combined with a specifically extended Phasor Field reconstruction algorithm can
reconstruct live real-time videos of non-retro-reflective NLOS scenes. We
provide an analysis of the Signal-to-Noise-Ratio (SNR) of our reconstructions
and show that for our method it is possible to reconstruct the scene such that
SNR, motion blur, angular resolution, and depth resolution are all independent
of scene size suggesting that reconstruction of very large scenes may be
possible. In the future, the light efficiency for NLOS imaging systems can be
improved further by adding more pixels to the sensor array.
- Abstract(参考訳): 非視線イメージング(NLOS)は、直視線から隠された物体の3次元形状を復元することを目的としている。
過去には、シーンサイズ、キャプチャ速度、再構成品質を制限したマルチバウンス信号の弱さに悩まされてきた。
数フレーム/秒でシーンを再構築できるアルゴリズムが実証されているが、リアルタイムNLOSビデオは、NLOS信号の強度が4桁以上向上するレトロ反射オブジェクトに対してのみ実証されている。
また,NLOS法における再建の信号対雑音比は距離や過去の復元によって急速に低下し,深さが数メートルの小さなシーンに限られていることも指摘されている。
実際のノイズと解像度のモデルは単純であり、問題の複雑さの多くを無視している。
本研究では,SPAD(Single-Photon Avalanche Diode)アレイ検出器の合計28ピクセルと,特に拡張されたファザーフィールド再構成アルゴリズムを組み合わせることで,非反射性NLOSシーンのライブリアルタイム映像を再構成可能であることを示す。
本稿では,SNR(Signal-to-Noise-Ratio)の分析を行い,SNR,動きのぼかし,角分解能,深度分解能などのシーンを再構成可能であることを示す。
将来的には、センサアレイにより多くのピクセルを追加することで、NLOSイメージングシステムの光効率をさらに向上することができる。
関連論文リスト
- Shakes on a Plane: Unsupervised Depth Estimation from Unstabilized
Photography [54.36608424943729]
2秒で取得した12メガピクセルのRAWフレームの「長バースト」では,自然手震動のみからの視差情報で高品質のシーン深度を回復できることが示されている。
我々は、長時間バーストデータにニューラルRGB-D表現を適合させるテスト時間最適化手法を考案し、シーン深度とカメラモーションを同時に推定する。
論文 参考訳(メタデータ) (2022-12-22T18:54:34Z) - Neural 3D Reconstruction in the Wild [86.6264706256377]
そこで我々は,インターネット写真コレクションから効率よく高精度な表面再構成を実現する新しい手法を提案する。
そこで本研究では,これらのシーンにおける再構成性能を評価するための新しいベンチマークとプロトコルを提案する。
論文 参考訳(メタデータ) (2022-05-25T17:59:53Z) - NeRFusion: Fusing Radiance Fields for Large-Scale Scene Reconstruction [50.54946139497575]
我々は,NeRF と TSDF をベースとした核融合技術の利点を組み合わせて,大規模再構築とフォトリアリスティックレンダリングを実現する手法であるNeRFusion を提案する。
我々は,大規模な屋内・小規模の両方の物体シーンにおいて,NeRFの最先端性を達成し,NeRFや他の最近の手法よりも大幅に高速に再現できることを実証した。
論文 参考訳(メタデータ) (2022-03-21T18:56:35Z) - T\"oRF: Time-of-Flight Radiance Fields for Dynamic Scene View Synthesis [32.878225196378374]
連続波ToFカメラのための画像形成モデルに基づくニューラル表現を提案する。
提案手法は, 動的シーン再構成のロバスト性を改善し, 誤ったキャリブレーションや大きな動きに改善することを示す。
論文 参考訳(メタデータ) (2021-09-30T17:12:59Z) - Towards Non-Line-of-Sight Photography [48.491977359971855]
非視線イメージング(NLOS)は、隠された物体からの多重バウンス間接反射を捉えることに基づいている。
アクティブなNLOSイメージングシステムは、シーンを通しての光の飛行時間の捕捉に依存している。
我々はNLOS写真と呼ばれる新しい問題定式化を提案し、この欠陥に特に対処する。
論文 参考訳(メタデータ) (2021-09-16T08:07:13Z) - Real-time dense 3D Reconstruction from monocular video data captured by
low-cost UAVs [0.3867363075280543]
リアルタイム3d再構築は,ナビゲーションや緊急時のライブ評価など,多数のアプリケーションにメリットがある環境の高速密マッピングを可能にする。
ほとんどのリアルタイム対応のアプローチとは対照的に、我々のアプローチは明示的な深度センサーを必要としない。
建物周辺を斜め視で飛行する無人航空機(UAV)の自己動作を利用して、選択された画像のカメラ軌道と深度の両方を、十分な新規な内容で推定します。
論文 参考訳(メタデータ) (2021-04-21T13:12:17Z) - HDR Video Reconstruction with Tri-Exposure Quad-Bayer Sensors [14.844162451328321]
本研究では,新しい3露光クアッドベイヤセンサを用いた高ダイナミックレンジ(建設)映像再構成手法を提案する。
多数の露光セットとフレーム上の空間的均一な展開により、従来の空間的変動露光(SVE)HDRビデオ手法よりも、ノイズや空間的アーティファクトに対して堅牢である。
提案手法は, 従来手法よりも3重露光クワッドバイヤーが最適であることを示す。
論文 参考訳(メタデータ) (2021-03-19T18:40:09Z) - Polka Lines: Learning Structured Illumination and Reconstruction for
Active Stereo [52.68109922159688]
本稿では,波動光学と幾何光学の両方に依存した,アクティブステレオのための新しい微分可能な画像形成モデルと,新しい三眼再構成ネットワークを提案する。
Polka Lines" を再現ネットワークと組み合わせた共同最適化パターンは, 撮像条件全体にわたって, 最先端のアクティブステレオ深度推定を達成している。
論文 参考訳(メタデータ) (2020-11-26T04:02:43Z) - Deep 3D Capture: Geometry and Reflectance from Sparse Multi-View Images [59.906948203578544]
本稿では,任意の物体の高品質な形状と複雑な空間変化を持つBRDFを再構成する学習に基づく新しい手法を提案する。
まず、深層多視点ステレオネットワークを用いて、ビューごとの深度マップを推定する。
これらの深度マップは、異なるビューを粗く整列するために使用される。
本稿では,新しい多視点反射率推定ネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-03-27T21:28:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。