論文の概要: Role of Transients in Two-Bounce Non-Line-of-Sight Imaging
- arxiv url: http://arxiv.org/abs/2304.01308v1
- Date: Mon, 3 Apr 2023 19:15:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-05 16:35:45.328835
- Title: Role of Transients in Two-Bounce Non-Line-of-Sight Imaging
- Title(参考訳): 2軸非直線イメージングにおける過渡現象の役割
- Authors: Siddharth Somasundaram, Akshat Dave, Connor Henley, Ashok
Veeraraghavan, Ramesh Raskar
- Abstract要約: 非視線イメージング(NLOS)は、多重散乱光を用いてカメラの視野から隠された画像オブジェクトである。
最近の研究は、レーザーを走査し、2つのリレー面を持つシーンにおける閉塞物体の鋳造影を測定することにより、2バウンス(2B)のNLOSイメージングの実現可能性を示している。
- 参考スコア(独自算出の注目度): 24.7311033930968
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The goal of non-line-of-sight (NLOS) imaging is to image objects occluded
from the camera's field of view using multiply scattered light. Recent works
have demonstrated the feasibility of two-bounce (2B) NLOS imaging by scanning a
laser and measuring cast shadows of occluded objects in scenes with two relay
surfaces. In this work, we study the role of time-of-flight (ToF) measurements,
\ie transients, in 2B-NLOS under multiplexed illumination. Specifically, we
study how ToF information can reduce the number of measurements and spatial
resolution needed for shape reconstruction. We present our findings with
respect to tradeoffs in (1) temporal resolution, (2) spatial resolution, and
(3) number of image captures by studying SNR and recoverability as functions of
system parameters. This leads to a formal definition of the mathematical
constraints for 2B lidar. We believe that our work lays an analytical
groundwork for design of future NLOS imaging systems, especially as ToF sensors
become increasingly ubiquitous.
- Abstract(参考訳): 非視線イメージング(NLOS)の目的は、多重散乱光を用いてカメラの視野から隠された物体を撮像することである。
最近の研究は、レーザーを走査し、2つのリレー面を持つシーンにおける閉塞物体の鋳造影を測定することにより、2バウンス(2B)のNLOSイメージングの実現可能性を示している。
本研究では,2B-NLOSにおける飛行時間(ToF)測定の役割を多重照明下で検討した。
具体的には,tof情報による形状復元に必要な計測数と空間分解能の低減について検討する。
本稿では,(1)時間分解能,(2)空間分解能,(3)SNRによる画像キャプチャ数,およびシステムパラメータの関数としての回復可能性に関するトレードオフについて述べる。
これにより、2Bライダーの数学的制約の形式的定義が導かれる。
我々の研究は将来のNLOSイメージングシステム、特にToFセンサーがますます普及するにつれて、分析的基盤を築き上げていると信じている。
関連論文リスト
- Transientangelo: Few-Viewpoint Surface Reconstruction Using Single-Photon Lidar [8.464054039931245]
ライダーは、ターゲットに光のパルスを放出し、反射光の光速遅延を記録することで、3Dシーンの幾何学を捉えている。
従来のライダーシステムは、後方散乱光の生で捕獲された波形を出力しない。
我々は,光子ノイズに対するロバスト性を向上させる新しい正則化戦略を開発し,画素あたり10光子程度で正確な表面再構成を可能にする。
論文 参考訳(メタデータ) (2024-08-22T08:12:09Z) - StableDreamer: Taming Noisy Score Distillation Sampling for Text-to-3D [88.66678730537777]
本稿では3つの進歩を取り入れた方法論であるStableDreamerを紹介する。
まず、SDS生成前の等価性と、簡単な教師付きL2再構成損失を定式化する。
第2に,画像空間拡散は幾何学的精度に寄与するが,色調の鮮明化には潜時空間拡散が不可欠であることを示す。
論文 参考訳(メタデータ) (2023-12-02T02:27:58Z) - SSIF: Learning Continuous Image Representation for Spatial-Spectral
Super-Resolution [73.46167948298041]
本稿では,空間領域における連続画素座標とスペクトル領域における連続波長の両方の関数として,画像を表すニューラル暗黙モデルを提案する。
SSIFは空間分解能とスペクトル分解能の両方によく対応していることを示す。
ダウンストリームタスクのパフォーマンスを1.7%-7%向上させる高解像度画像を生成することができる。
論文 参考訳(メタデータ) (2023-09-30T15:23:30Z) - Omni-Line-of-Sight Imaging for Holistic Shape Reconstruction [45.955894009809185]
複素物体の全体的形状再構成(HSR)を行うニューラル・コンピュータ・イメージング法であるOmni-LOSを紹介する。
本手法により, 物体の周囲形状を1つの走査点から360円付近で再現できる。
論文 参考訳(メタデータ) (2023-04-21T07:12:41Z) - Shakes on a Plane: Unsupervised Depth Estimation from Unstabilized
Photography [54.36608424943729]
2秒で取得した12メガピクセルのRAWフレームの「長バースト」では,自然手震動のみからの視差情報で高品質のシーン深度を回復できることが示されている。
我々は、長時間バーストデータにニューラルRGB-D表現を適合させるテスト時間最適化手法を考案し、シーン深度とカメラモーションを同時に推定する。
論文 参考訳(メタデータ) (2022-12-22T18:54:34Z) - Frequency-Aware Self-Supervised Monocular Depth Estimation [41.97188738587212]
自己教師付き単眼深度推定モデルを改善するための2つの多目的手法を提案する。
本手法の高一般化性は,測光損失関数の基本的およびユビキタスな問題を解くことによって達成される。
我々は、解釈可能な解析で深度推定器を改善するために、初めてぼやけた画像を提案する。
論文 参考訳(メタデータ) (2022-10-11T14:30:26Z) - CLONeR: Camera-Lidar Fusion for Occupancy Grid-aided Neural
Representations [77.90883737693325]
本稿では,スパース入力センサビューから観測される大規模な屋外運転シーンをモデル化することで,NeRFを大幅に改善するCLONeRを提案する。
これは、NeRFフレームワーク内の占有率と色学習を、それぞれLiDARとカメラデータを用いてトレーニングされた個別のMulti-Layer Perceptron(MLP)に分離することで実現される。
さらに,NeRFモデルと平行に3D Occupancy Grid Maps(OGM)を構築する手法を提案し,この占有グリッドを利用して距離空間のレンダリングのために線に沿った点のサンプリングを改善する。
論文 参考訳(メタデータ) (2022-09-02T17:44:50Z) - LIF-Seg: LiDAR and Camera Image Fusion for 3D LiDAR Semantic
Segmentation [78.74202673902303]
本稿では,LiDAR分割のための粗大なLiDARとカメラフュージョンベースネットワーク(LIF-Seg)を提案する。
提案手法は,画像の文脈情報を完全に活用し,単純だが効果的な早期融合戦略を導入する。
これら2つのコンポーネントの協力により、効果的なカメラ-LiDAR融合が成功する。
論文 参考訳(メタデータ) (2021-08-17T08:53:11Z) - Spatially-Variant CNN-based Point Spread Function Estimation for Blind
Deconvolution and Depth Estimation in Optical Microscopy [6.09170287691728]
薄めながら平らでない物体の光顕微鏡画像の解像度を向上する手法を提案する。
畳み込みニューラルネットワーク(CNN)を用いた空間変動点スプレッド関数(PSF)モデルのパラメータを推定する。
本手法は,理想条件下での2乗ピアソン相関係数0.99で画像自体からPSFパラメータを復元する。
論文 参考訳(メタデータ) (2020-10-08T14:20:16Z) - Efficient Non-Line-of-Sight Imaging from Transient Sinograms [36.154873075911404]
非視線(NLOS)イメージング技術は、角の周囲を見るために可視表面(例えば壁)から拡散的に反射する光を使用する。
1つのアプローチは、パルスレーザーと超高速センサーを使用して、多重散乱光の移動時間を測定することである。
より効率的なNLOSスキャン方式を提案する。
論文 参考訳(メタデータ) (2020-08-06T17:50:50Z) - Unlimited Resolution Image Generation with R2D2-GANs [69.90258455164513]
本稿では,任意の解像度の高品質な画像を生成するための新しいシミュレーション手法を提案する。
この方法では、フル長のミッション中に収集したソナースキャンと同等の大きさのソナースキャンを合成することができる。
生成されたデータは、連続的で、現実的に見え、また、取得の実際の速度の少なくとも2倍の速さで生成される。
論文 参考訳(メタデータ) (2020-03-02T17:49:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。