論文の概要: Deep Non-Line-of-Sight Reconstruction
- arxiv url: http://arxiv.org/abs/2001.09067v2
- Date: Wed, 29 Jan 2020 12:42:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-07 05:17:54.632475
- Title: Deep Non-Line-of-Sight Reconstruction
- Title(参考訳): 深部非直線再構成法
- Authors: Javier Grau Chopite, Matthias B. Hullin, Michael Wand and Julian
Iseringhausen
- Abstract要約: 本稿では,再構成問題を効率的に解くために,畳み込みフィードフォワードネットワークを用いる。
本研究では,自動エンコーダアーキテクチャを設計し,一貫した画像を直接深度マップ表現にマッピングする。
筆者らのフィードフォワードネットワークは,合成データのみに基づいて訓練されているものの,SPADセンサの計測データに一般化し,モデルに基づく再構成手法と競合する結果が得られることを示した。
- 参考スコア(独自算出の注目度): 18.38481917675749
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The recent years have seen a surge of interest in methods for imaging beyond
the direct line of sight. The most prominent techniques rely on time-resolved
optical impulse responses, obtained by illuminating a diffuse wall with an
ultrashort light pulse and observing multi-bounce indirect reflections with an
ultrafast time-resolved imager. Reconstruction of geometry from such data,
however, is a complex non-linear inverse problem that comes with substantial
computational demands. In this paper, we employ convolutional feed-forward
networks for solving the reconstruction problem efficiently while maintaining
good reconstruction quality. Specifically, we devise a tailored autoencoder
architecture, trained end-to-end, that maps transient images directly to a
depth map representation. Training is done using an efficient transient
renderer for diffuse three-bounce indirect light transport that enables the
quick generation of large amounts of training data for the network. We examine
the performance of our method on a variety of synthetic and experimental
datasets and its dependency on the choice of training data and augmentation
strategies, as well as architectural features. We demonstrate that our
feed-forward network, even though it is trained solely on synthetic data,
generalizes to measured data from SPAD sensors and is able to obtain results
that are competitive with model-based reconstruction methods.
- Abstract(参考訳): 近年では、直接の視線を超えた撮像方法への関心が高まっている。
最も顕著な方法は時間分解光インパルス応答であり、超短パルスで拡散壁を照らし、超高速時間分解撮像器で複数バウンドの間接反射を観測することで得られる。
しかし、そのようなデータから幾何を再構成することは、相当な計算要求を伴う複雑な非線形逆問題である。
本稿では, コンボリューションフィードフォワードネットワークを用いて, 良好な復元品質を維持しつつ, 効率的に再構築問題を解く。
具体的には、過渡画像を直接深度マップ表現にマッピングする、訓練されたエンドツーエンドのオートエンコーダアーキテクチャを考案する。
トレーニングは、ネットワークのために大量のトレーニングデータを迅速に生成できる3バウンドの間接光輸送のための効率的なトランジェントレンダラを使用して行われる。
本稿では, 各種合成および実験データセットにおける本手法の性能と, 学習データの選択や拡張戦略, アーキテクチャ的特徴への依存性について検討する。
筆者らのフィードフォワードネットワークは,合成データのみに基づいて訓練されているものの,SPADセンサの計測データに一般化し,モデルに基づく再構成手法と競合する結果が得られることを示した。
関連論文リスト
- Sparse Multi-baseline SAR Cross-modal 3D Reconstruction of Vehicle Targets [5.6680936716261705]
本稿では,光学画像と異種レンダリングとクロスモーダル監視を統合したクロスモーダル再構成ネットワーク(CMR-Net)を提案する。
シミュレーションデータのみに基づいてトレーニングされたCMR-Netは、公開可能なシミュレーションデータセットと実測データセットの両方で、高解像度の再構築機能を示す。
論文 参考訳(メタデータ) (2024-06-06T15:18:59Z) - Enhancing Surface Neural Implicits with Curvature-Guided Sampling and Uncertainty-Augmented Representations [37.42624848693373]
本研究では,高忠実度3次元再構成作業において,深度画像を直接消化する手法を提案する。
高効率なトレーニングデータを生成するため,簡単なサンプリング手法を提案する。
その単純さにもかかわらず、本手法は古典的および学習的ベースラインの両方に優れる。
論文 参考訳(メタデータ) (2023-06-03T12:23:17Z) - A Deep Learning Approach for SAR Tomographic Imaging of Forested Areas [10.477070348391079]
我々は,1つのフィードフォワードパスでトモグラフィインバージョンを実行するために,軽量ニューラルネットワークをトレーニング可能であることを示す。
我々は、シミュレーションデータを用いてエンコーダ・デコーダネットワークを訓練し、実LバンドとPバンドのデータに基づいてその手法を検証する。
論文 参考訳(メタデータ) (2023-01-20T14:34:03Z) - A Projection-Based K-space Transformer Network for Undersampled Radial
MRI Reconstruction with Limited Training Subjects [1.5708535232255898]
非カルテシアン軌道は、ネットワークトレーニングの各イテレーションにおいて、カルテシアングリッドに変換される必要がある。
本研究では,限られた被験者から大量のトレーニングデータを生成するための新しいデータ拡張手法を提案する。
実験の結果,最先端のディープニューラルネットワークと比較して,提案手法の優れた性能を示した。
論文 参考訳(メタデータ) (2022-06-15T00:20:22Z) - Neural 3D Reconstruction in the Wild [86.6264706256377]
そこで我々は,インターネット写真コレクションから効率よく高精度な表面再構成を実現する新しい手法を提案する。
そこで本研究では,これらのシーンにおける再構成性能を評価するための新しいベンチマークとプロトコルを提案する。
論文 参考訳(メタデータ) (2022-05-25T17:59:53Z) - Physics to the Rescue: Deep Non-line-of-sight Reconstruction for
High-speed Imaging [13.271762773872476]
本稿では,高品位かつ堅牢なNLOS再構成のためのニューラルネットワークに,波動伝搬とボリュームレンダリングの相補的な物理を組み込んだ新しいディープモデルを提案する。
本手法は, 実測値と実測値の両方に基づいて, 従来の物理・学習手法よりも優れていた。
論文 参考訳(メタデータ) (2022-05-03T02:47:02Z) - Unsupervised Restoration of Weather-affected Images using Deep Gaussian
Process-based CycleGAN [92.15895515035795]
本稿では,CycleGANに基づくディープネットワークの監視手法について述べる。
我々は,より効果的なトレーニングにつながるCycleGANのトレーニングに新たな損失を導入し,高品質な再構築を実現した。
提案手法は, 脱落, 脱落, 脱落といった様々な修復作業に効果的に適用できることを実証する。
論文 参考訳(メタデータ) (2022-04-23T01:30:47Z) - Aerial Images Meet Crowdsourced Trajectories: A New Approach to Robust
Road Extraction [110.61383502442598]
我々は、Cross-Modal Message Propagation Network (CMMPNet)と呼ばれる新しいニューラルネットワークフレームワークを紹介する。
CMMPNetは、モダリティ固有の表現学習のための2つのディープオートエンコーダと、クロスモーダル表現洗練のためのテーラー設計のデュアルエンハンスメントモジュールで構成されている。
実世界の3つのベンチマーク実験により, CMMPNetによる堅牢な道路抽出の有効性が示された。
論文 参考訳(メタデータ) (2021-11-30T04:30:10Z) - Is Deep Image Prior in Need of a Good Education? [57.3399060347311]
画像再構成に有効な先行画像として, 奥行き画像が導入された。
その印象的な再建性にもかかわらず、学習技術や伝統的な再建技術と比べてアプローチは遅い。
計算課題に対処する2段階の学習パラダイムを開発する。
論文 参考訳(メタデータ) (2021-11-23T15:08:26Z) - Spatio-Temporal Recurrent Networks for Event-Based Optical Flow
Estimation [47.984368369734995]
本稿では,イベントベース光フロー推定のためのニューラルネットアーキテクチャを提案する。
このネットワークは、Multi-Vehicle Stereo Event Cameraデータセット上で、セルフ教師付き学習でエンドツーエンドにトレーニングされている。
既存の最先端の手法を大きなマージンで上回る結果が得られた。
論文 参考訳(メタデータ) (2021-09-10T13:37:37Z) - MVSNeRF: Fast Generalizable Radiance Field Reconstruction from
Multi-View Stereo [52.329580781898116]
MVSNeRFは、ビュー合成のための神経放射場を効率的に再構築できる新しいニューラルレンダリング手法である。
高密度にキャプチャされた画像に対して,シーン毎の最適化を考慮に入れたニューラルネットワークの先行研究とは異なり,高速ネットワーク推論により,近傍の3つの入力ビューのみからラミアンスフィールドを再構成できる汎用ディープニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2021-03-29T13:15:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。