論文の概要: Real-time Non-line-of-sight Imaging with Two-step Deep Remapping
- arxiv url: http://arxiv.org/abs/2101.10492v1
- Date: Tue, 26 Jan 2021 00:08:54 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-14 15:55:34.052102
- Title: Real-time Non-line-of-sight Imaging with Two-step Deep Remapping
- Title(参考訳): 2段階Deep Remappingを用いたリアルタイム非視線イメージング
- Authors: Dayu Zhu, Wenshan Cai
- Abstract要約: 非視線(NLOS)イメージングは、間接光を考慮に入れます。
ほとんどのソリューションは過渡走査プロセスを使用し、続いてNLOSシーンを再構築するためのバックプロジェクションベースのアルゴリズムが続く。
ここでは、上記の欠陥に対処する新しいNLOSソリューションを提案し、検出装置と再構成アルゴリズムの両方に革新をもたらす。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Conventional imaging only records the photons directly sent from the object
to the detector, while non-line-of-sight (NLOS) imaging takes the indirect
light into account. To explore the NLOS surroundings, most NLOS solutions
employ a transient scanning process, followed by a back-projection based
algorithm to reconstruct the NLOS scenes. However, the transient detection
requires sophisticated apparatus, with long scanning time and low robustness to
ambient environment, and the reconstruction algorithms typically cost tens of
minutes with high demand on memory and computational resources. Here we propose
a new NLOS solution to address the above defects, with innovations on both
detection equipment and reconstruction algorithm. We apply inexpensive
commercial Lidar for detection, with much higher scanning speed and better
compatibility to real-world imaging tasks. Our reconstruction framework is deep
learning based, consisting of a variational autoencoder and a compression
neural network. The generative feature and the two-step reconstruction strategy
of the framework guarantee high fidelity of NLOS imaging. The overall detection
and reconstruction process allows for real-time responses, with
state-of-the-art reconstruction performance. We have experimentally tested the
proposed solution on both a synthetic dataset and real objects, and further
demonstrated our method to be applicable for full-color NLOS imaging.
- Abstract(参考訳): 従来のイメージングは、物体から検出器に直接送信された光子のみを記録し、非視線(NLOS)イメージングは間接光を考慮に入れます。
NLOS環境を探索するために、ほとんどのNLOSソリューションは過渡走査プロセスを使用し、続いてNLOSシーンを再構築するためのバックプロジェクションベースのアルゴリズムが続く。
しかし、過渡検出には、長時間の走査時間と環境に対する堅牢性の低い高度な装置が必要であり、再構成アルゴリズムは通常、メモリや計算資源に高い要求を伴い、数分間のコストがかかる。
ここでは、上記の欠陥に対処する新しいNLOSソリューションを提案し、検出装置と再構成アルゴリズムの両方に革新をもたらす。
我々は、より高速な走査速度と実世界の撮像タスクとの互換性を向上し、安価な商用Lidarを検知に応用する。
我々の再構成フレームワークは、変分オートエンコーダと圧縮ニューラルネットワークからなるディープラーニングベースである。
この枠組みの生成的特徴と2段階の再構成戦略は、nlosイメージングの高忠実性を保証する。
全体的な検出と再構築のプロセスは、最先端の再構築性能を備えたリアルタイム応答を可能にする。
提案手法を合成データセットと実物の両方で実験的に実験し,本手法をフルカラーNLOSイメージングに適用できることを実証した。
関連論文リスト
- A Novel end-to-end Framework for Occluded Pixel Reconstruction with
Spatio-temporal Features for Improved Person Re-identification [0.842885453087587]
人の身元確認は、公共の安全を高めるために群衆の動きを監視し、追跡するために不可欠である。
本研究では、ディープニューラルネットワークからなるRGB画像/映像の効果的な閉塞検出・再構成フレームワークを開発することにより、有効な解を提案する。
具体的には、CNNベースのオクルージョン検出モデルが個々の入力フレームを分類し、次いでConv-LSTMおよびオートエンコーダを用いて、シーケンシャル(ビデオ)および非シーケンシャル(画像)データに対して、オクルードされたフレームに対応するオクルード画素を再構成する。
論文 参考訳(メタデータ) (2023-04-16T08:14:29Z) - Exploring Resolution and Degradation Clues as Self-supervised Signal for
Low Quality Object Detection [77.3530907443279]
劣化した低解像度画像中の物体を検出するための,新しい自己教師型フレームワークを提案する。
本手法は, 既存手法と比較して, 異変劣化状況に直面する場合に比べ, 優れた性能を示した。
論文 参考訳(メタデータ) (2022-08-05T09:36:13Z) - Neural 3D Reconstruction in the Wild [86.6264706256377]
そこで我々は,インターネット写真コレクションから効率よく高精度な表面再構成を実現する新しい手法を提案する。
そこで本研究では,これらのシーンにおける再構成性能を評価するための新しいベンチマークとプロトコルを提案する。
論文 参考訳(メタデータ) (2022-05-25T17:59:53Z) - Physics to the Rescue: Deep Non-line-of-sight Reconstruction for
High-speed Imaging [13.271762773872476]
本稿では,高品位かつ堅牢なNLOS再構成のためのニューラルネットワークに,波動伝搬とボリュームレンダリングの相補的な物理を組み込んだ新しいディープモデルを提案する。
本手法は, 実測値と実測値の両方に基づいて, 従来の物理・学習手法よりも優れていた。
論文 参考訳(メタデータ) (2022-05-03T02:47:02Z) - Spatially-Adaptive Image Restoration using Distortion-Guided Networks [51.89245800461537]
空間的に変化する劣化に苦しむ画像の復元のための学習ベースソリューションを提案する。
本研究では、歪み局所化情報を活用し、画像中の困難な領域に動的に適応するネットワーク設計であるSPAIRを提案する。
論文 参考訳(メタデータ) (2021-08-19T11:02:25Z) - SPI-GAN: Towards Single-Pixel Imaging through Generative Adversarial
Network [6.722629246312285]
本稿では,SPI-GANと呼ばれる一画素イメージングのための生成的対向的ネットワークベース再構成フレームワークを提案する。
サンプリング比が5%に低下しても、17.92dBのPSNRと0.487のSSIMで画像を再構成することができる。
論文 参考訳(メタデータ) (2021-07-03T03:06:09Z) - A parameter refinement method for Ptychography based on Deep Learning
concepts [55.41644538483948]
伝播距離、位置誤差、部分的コヒーレンスにおける粗いパラメトリゼーションは、しばしば実験の生存性を脅かす。
最新のDeep Learningフレームワークは、セットアップの不整合を自律的に補正するために使用され、ポチコグラフィーの再構築の質が向上する。
我々は,elettra シンクロトロン施設のツインミックビームラインで取得した合成データセットと実データの両方でシステムをテストした。
論文 参考訳(メタデータ) (2021-05-18T10:15:17Z) - Adaptive Gradient Balancing for UndersampledMRI Reconstruction and
Image-to-Image Translation [60.663499381212425]
本研究では,新しい適応勾配バランス手法を併用したwasserstein生成逆ネットワークを用いて,画質の向上を図る。
MRIでは、他の技術よりも鮮明な画像を生成する高品質の再構築を維持しながら、アーティファクトを最小限に抑えます。
論文 参考訳(メタデータ) (2021-04-05T13:05:22Z) - LSHR-Net: a hardware-friendly solution for high-resolution computational
imaging using a mixed-weights neural network [5.475867050068397]
本稿では,混合重み付けニューラルネットワークを用いた新しいハードウェアフレンドリな計算手法を提案する。
特に、学習された二分重センシングパターンはサンプリング装置に合わせて調整される。
提案手法はベンチマークデータセットで検証され, 再現精度が向上した。
論文 参考訳(メタデータ) (2020-04-27T20:59:51Z) - u-net CNN based fourier ptychography [5.46367622374939]
本稿では,畳み込みニューラルネットワークに基づく新しい検索アルゴリズムを提案する。
実験により, システム収差下において, 再現性が向上し, より堅牢であることが確認された。
論文 参考訳(メタデータ) (2020-03-16T22:48:44Z) - Unlimited Resolution Image Generation with R2D2-GANs [69.90258455164513]
本稿では,任意の解像度の高品質な画像を生成するための新しいシミュレーション手法を提案する。
この方法では、フル長のミッション中に収集したソナースキャンと同等の大きさのソナースキャンを合成することができる。
生成されたデータは、連続的で、現実的に見え、また、取得の実際の速度の少なくとも2倍の速さで生成される。
論文 参考訳(メタデータ) (2020-03-02T17:49:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。