論文の概要: Ray-tracing with quantum correlated photons to image a 3D scene
- arxiv url: http://arxiv.org/abs/2107.13095v2
- Date: Thu, 19 Aug 2021 23:07:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-20 19:12:29.553682
- Title: Ray-tracing with quantum correlated photons to image a 3D scene
- Title(参考訳): 量子相関光子を用いた3次元映像のレイトレーシング
- Authors: Yingwen Zhang, Antony Orth, Duncan England, and Benjamin Sussman
- Abstract要約: 量子相関光子対を用いたレイトレーシングによるシーンの3次元情報の再構成を実証する。
将来のカメラの進歩により、この技術はより高度な運動量分解能を達成することができる。
量子源からの高光子相関と低光子フラックスは、光感受性試料の3Dイメージングにも適している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: To capture the 3D information of a scene, conventional techniques often
require multiple 2D images of the scene to be captured from different
perspectives. In this work we demonstrate the reconstruction of a scene's 3D
information through ray-tracing using quantum correlated photon pairs. By
capturing the two photons in different image planes using time-tagging cameras
and taking advantage of the position, momentum and time correlation of the
photons, the photons' propagation trajectory can be reconstructed. With this
information on every photon pair, we were able to demonstrate refocusing, depth
of field adjustment and parallax visualization of a 3D scene. With future
camera advancements, this technique could achieve a much higher momentum
resolution than conventional techniques thus giving larger depth of field and
more viewing angles. The high photon correlation and low photon flux from a
quantum source also makes the technique well suited for 3D imaging of light
sensitive samples.
- Abstract(参考訳): シーンの3D情報をキャプチャするために、従来の手法では、異なる視点からシーンの複数の2D画像を取得する必要があることが多い。
本研究では,量子相関光子対を用いたレイトレーシングによるシーンの3次元情報の再構成を実証する。
時間タグカメラを用いて異なる画像平面中の2つの光子を捕捉し、光子の位置、運動量、時間相関を利用して、光子の伝搬軌道を再構成することができる。
各光子対のこの情報を用いて,3次元シーンの再焦点,被写界深度,視差の可視化を実演することができた。
将来のカメラの進歩により、この技術は従来の技術よりもはるかに高い運動量分解能を達成でき、視野の深度と視野角が向上する。
量子源からの高光子相関と低光子フラックスは、光感受性試料の3Dイメージングにも適している。
関連論文リスト
- A Plug-and-Play Algorithm for 3D Video Super-Resolution of Single-Photon LiDAR data [5.378429123269604]
単光子アバランシェダイオード(SPAD)は、個々の光子を検出し、ピコ秒分解能で到着時間を記録できる高度なセンサーである。
本研究では,SPADデータから移動シーンの3次元再構成を改善するための新しい計算画像処理アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-12-12T16:33:06Z) - Dense Dispersed Structured Light for Hyperspectral 3D Imaging of Dynamic Scenes [9.050557698554696]
ハイパースペクトル3Dイメージングは、深度マップとハイパースペクトル画像の両方をキャプチャし、幾何学的および物質的分析を可能にする。
近年の手法ではスペクトルと深さの精度が高いが、数分で長い取得時間を要する場合や、高価な大型システムに依存する場合が多い。
ステレオRGBカメラと安価な回折格子膜を用いたダイナミックシーンの高精度ハイパースペクトル3次元イメージング法を提案する。
論文 参考訳(メタデータ) (2024-12-02T05:30:18Z) - Transientangelo: Few-Viewpoint Surface Reconstruction Using Single-Photon Lidar [8.464054039931245]
ライダーは、ターゲットに光のパルスを放出し、反射光の光速遅延を記録することで、3Dシーンの幾何学を捉えている。
従来のライダーシステムは、後方散乱光の生で捕獲された波形を出力しない。
我々は,光子ノイズに対するロバスト性を向上させる新しい正則化戦略を開発し,画素あたり10光子程度で正確な表面再構成を可能にする。
論文 参考訳(メタデータ) (2024-08-22T08:12:09Z) - Flying with Photons: Rendering Novel Views of Propagating Light [37.06220870989172]
本稿では,新しい移動カメラの視点から,シーンを通して伝播する光の映像を合成する画像・ニューラルレンダリング技術を提案する。
我々のアプローチは、ピコ秒レベルの時間分解能を持つファースト・オブ・イットタイプの多視点ビデオデータセットをキャプチャするための、新しい超高速撮像装置に依存している。
論文 参考訳(メタデータ) (2024-04-09T17:48:52Z) - SpatialTracker: Tracking Any 2D Pixels in 3D Space [71.58016288648447]
本稿では,画像投影による問題点を軽減するために,3次元空間における点軌道の推定を提案する。
この手法はSpatialTrackerと呼ばれ、2Dピクセルをモノクロ深度推定器を用いて3Dにリフトする。
3Dでのトラッキングにより、ピクセルを異なる剛性部分にクラスタ化する剛性埋め込みを同時に学習しながら、ARAP(as-rigid-as-possible)制約を活用することができます。
論文 参考訳(メタデータ) (2024-04-05T17:59:25Z) - 3D Motion Magnification: Visualizing Subtle Motions with Time Varying
Radiance Fields [58.6780687018956]
本研究では,移動カメラが捉えたシーンからの微妙な動きを拡大できる3次元運動倍率法を提案する。
時間変化のラディアンス場を用いてシーンを表現し、運動倍率のユーレリア原理を利用する。
我々は,様々なカメラ装置で撮影した合成シーンと実世界のシーンの両方において,本手法の有効性を評価する。
論文 参考訳(メタデータ) (2023-08-07T17:59:59Z) - Shakes on a Plane: Unsupervised Depth Estimation from Unstabilized
Photography [54.36608424943729]
2秒で取得した12メガピクセルのRAWフレームの「長バースト」では,自然手震動のみからの視差情報で高品質のシーン深度を回復できることが示されている。
我々は、長時間バーストデータにニューラルRGB-D表現を適合させるテスト時間最適化手法を考案し、シーン深度とカメラモーションを同時に推定する。
論文 参考訳(メタデータ) (2022-12-22T18:54:34Z) - 3D Moments from Near-Duplicate Photos [67.15199743223332]
3D Momentsは、新しい計算写真効果だ。
1枚目から2枚目までのシーンの動きを円滑に補間するビデオを作成する。
本システムは,モーションパララックスとシーンダイナミックスを併用したフォトリアリスティックな時空ビデオを生成する。
論文 参考訳(メタデータ) (2022-05-12T17:56:18Z) - Single-Photon Structured Light [31.614032717665832]
単一光子構造光」は、露光中の光子到着の有無を示すバイナリイメージを検知することで機能する。
本研究では,プロジェクタやカメラデフォーカスのような短距離効果に対して頑健に設計した誤り訂正符号を用いた新しい時間系列を開発する。
我々の実験室のプロトタイプは、非常に低いアルベドや高速な動きの物体を含む困難なシナリオで3Dイメージングを行うことができる。
論文 参考訳(メタデータ) (2022-04-11T17:57:04Z) - Deep Photon Mapping [59.41146655216394]
本稿では,粒子ベースのレンダリングのための新しい深層学習手法を提案する。
我々は、カーネル関数を予測するために新しいディープニューラルネットワークをトレーニングし、シェーディングポイントでの光子寄与を集約する。
我々のネットワークは、個々の光子を光子ごとの特徴にエンコードし、シェーディングポイントの近傍でそれらを集約し、光子ごとの局所的特徴と光子ごとの局所的特徴からカーネル関数を推論する。
論文 参考訳(メタデータ) (2020-04-25T06:59:10Z) - Lightweight Multi-View 3D Pose Estimation through Camera-Disentangled
Representation [57.11299763566534]
空間校正カメラで撮影した多視点画像から3次元ポーズを復元する手法を提案する。
我々は3次元形状を利用して、入力画像をカメラ視点から切り離したポーズの潜在表現に融合する。
アーキテクチャは、カメラプロジェクション演算子に学習した表現を条件付け、ビュー当たりの正確な2次元検出を生成する。
論文 参考訳(メタデータ) (2020-04-05T12:52:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。