論文の概要: All-photon Polarimetric Time-of-Flight Imaging
- arxiv url: http://arxiv.org/abs/2112.09278v1
- Date: Fri, 17 Dec 2021 01:51:47 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-20 16:06:30.584433
- Title: All-photon Polarimetric Time-of-Flight Imaging
- Title(参考訳): 全光子偏光時間イメージング
- Authors: Seung-Hwan Baek, Felix Heide
- Abstract要約: Time-of-light (ToF) センサーは、LiDARを含む様々な用途を自律運転に利用するための画像モダリティを提供する。
従来のToFイメージング法では、光のパルスをシーンに送信し、最初の光子のToFを測定することで、深さを推定する。
本稿では, 時間偏光解析を取り入れた全光子ToFイメージング手法を提案する。
- 参考スコア(独自算出の注目度): 33.499684969102816
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Time-of-flight (ToF) sensors provide an imaging modality fueling diverse
applications, including LiDAR in autonomous driving, robotics, and augmented
reality. Conventional ToF imaging methods estimate the depth by sending pulses
of light into a scene and measuring the ToF of the first-arriving photons
directly reflected from a scene surface without any temporal delay. As such,
all photons following this first response are typically considered as unwanted
noise. In this paper, we depart from the principle of using first-arriving
photons and propose an all-photon ToF imaging method by incorporating the
temporal-polarimetric analysis of first- and late-arriving photons, which
possess rich scene information about its geometry and material. To this end, we
propose a novel temporal-polarimetric reflectance model, an efficient capture
method, and a reconstruction method that exploits the temporal-polarimetric
changes of light reflected by the surface and sub-surface reflection. The
proposed all-photon polarimetric ToF imaging method allows for acquiring depth,
surface normals, and material parameters of a scene by utilizing all photons
captured by the system, whereas conventional ToF imaging only obtains coarse
depth from the first-arriving photons. We validate our method in simulation and
experimentally with a prototype.
- Abstract(参考訳): time-of(tof)センサーは、自動運転、ロボティクス、拡張現実など、さまざまな応用に寄与するイメージングモードを提供する。
従来のtofイメージング手法では、光パルスをシーンに送信し、時間的遅延なくシーン面から直接反射される第1の光子のtofを測定することで深度を推定する。
したがって、この最初の応答に続く全ての光子は、通常望ましくないノイズと見なされる。
本稿では,第一・後期光子の時間的偏光解析を組み込んだ全光子tofイメージング法を提案する。
そこで本研究では, 表面反射光と地下反射の時間的偏光変化を利用した新しい時間的偏光反射モデル, 効率的な捕捉法, 再構成法を提案する。
提案する全光子ポラリメトリックtofイメージング法では,システムで撮影された全ての光子を利用してシーンの深さ,表面正規値,材料パラメータを取得することができるが,従来のtofイメージングでは第1の光子から粗い深さのみが得られる。
本手法をシミュレーションおよび試作機で実験的に検証する。
関連論文リスト
- End-to-End Hybrid Refractive-Diffractive Lens Design with Differentiable Ray-Wave Model [18.183342315517244]
本稿では,光収差と拡散位相変調の両方を正確にシミュレーションするためのハイブリッド光線トレーシングと波動伝搬(光波)モデルを提案する。
提案したレイウェーブモデルは完全に微分可能であり、屈折回折レンズ最適化と画像再構成ネットワークのエンドツーエンド共設計のための勾配バックプロパゲーションを可能にする。
論文 参考訳(メタデータ) (2024-06-02T18:48:22Z) - Spatial and temporal characteristics of spontaneous parametric down-conversion with varying focal planes of interacting beams [0.0]
自然パラメトリックダウンコンバージョン(SPDC)は、絡み合った光子対を作るために広く用いられるプロセスである。
検出モードと比較してポンプビームの正確な焦点面位置は実実験では決定が難しい。
本研究では、焦点面の変動位置を考察し、焦点面の変化が光子対の空間的および時間的特性に与える影響について考察する。
論文 参考訳(メタデータ) (2022-12-23T20:04:24Z) - A Geometric Model for Polarization Imaging on Projective Cameras [5.381004207943598]
一般射影カメラが光偏光状態をどのように捉えているかを記述する幾何学的モデルを提案する。
本モデルは, 原画像に作用する前処理操作として実装され, その後, 再構成された正規フィールドの画素単位の回転が続く。
既存のデータセットと新しいデータセットの実験は、市販の偏光カメラに適用した場合のモデルの精度を示している。
論文 参考訳(メタデータ) (2022-11-29T17:12:26Z) - Centimeter-Wave Free-Space Time-of-Flight Imaging [25.15384123485028]
本研究では,光変換前における全光自由空間相関の計算画像化手法を提案する。
共振偏光変調器を用いた撮像手法を提案し,10GHz以上の高変調コントラストを実現する光二重パス周波数共振器を提案する。
提案手法をシミュレーションおよび実験で検証し,ミクロンスケールの深度精度を実現する。
論文 参考訳(メタデータ) (2021-05-25T01:57:10Z) - Passive Inter-Photon Imaging [18.739224941453983]
デジタルカメラの画素は入射光エネルギーをアナログ電流に変換し、それを固定幅のバイナリ表現に変換することで画像強度を測定する。
この直接測定方法は、極端照明下でのダイナミックレンジの制限と性能の低下に苦しむ。
本稿では、連続光子検出の時間遅延として定義される光子間タイミングの測定に基づく新しい強度手がかりを提案する。
論文 参考訳(メタデータ) (2021-03-31T18:44:52Z) - Leveraging Spatial and Photometric Context for Calibrated Non-Lambertian
Photometric Stereo [61.6260594326246]
空間と測光の両方を同時に活用できる効率的な完全畳み込みアーキテクチャを提案する。
分離可能な4D畳み込みと2D熱マップを使うことで、サイズが小さくなり、効率が向上する。
論文 参考訳(メタデータ) (2021-03-22T18:06:58Z) - A learning-based view extrapolation method for axial super-resolution [52.748944517480155]
軸光界分解能は、再焦点によって異なる深さで特徴を区別する能力を指します。
せん断エピポーラ平面画像の軸体積から新しい視点を推定する学習に基づく手法を提案する。
論文 参考訳(メタデータ) (2021-03-11T07:22:13Z) - Single-shot Hyperspectral-Depth Imaging with Learned Diffractive Optics [72.9038524082252]
単発単眼単眼ハイパースペクトル(HS-D)イメージング法を提案する。
本手法では, 回折光学素子 (DOE) を用いる。
DOE の学習を容易にするため,ベンチトップ HS-D イメージラーを構築することで,最初の HS-D データセットを提案する。
論文 参考訳(メタデータ) (2020-09-01T14:19:35Z) - Single Image Brightening via Multi-Scale Exposure Fusion with Hybrid
Learning [48.890709236564945]
小さいISOと小さな露光時間は、通常、背面または低い光条件下で画像をキャプチャするために使用される。
本稿では、そのような画像を明るくするために、単一の画像輝度化アルゴリズムを提案する。
提案アルゴリズムは,露出時間が大きい2つの仮想画像を生成するための,ユニークなハイブリッド学習フレームワークを含む。
論文 参考訳(メタデータ) (2020-07-04T08:23:07Z) - Deep Photon Mapping [59.41146655216394]
本稿では,粒子ベースのレンダリングのための新しい深層学習手法を提案する。
我々は、カーネル関数を予測するために新しいディープニューラルネットワークをトレーニングし、シェーディングポイントでの光子寄与を集約する。
我々のネットワークは、個々の光子を光子ごとの特徴にエンコードし、シェーディングポイントの近傍でそれらを集約し、光子ごとの局所的特徴と光子ごとの局所的特徴からカーネル関数を推論する。
論文 参考訳(メタデータ) (2020-04-25T06:59:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。