論文の概要: Transientangelo: Few-Viewpoint Surface Reconstruction Using Single-Photon Lidar
- arxiv url: http://arxiv.org/abs/2408.12191v3
- Date: Sat, 09 Nov 2024 00:27:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-12 17:14:23.936478
- Title: Transientangelo: Few-Viewpoint Surface Reconstruction Using Single-Photon Lidar
- Title(参考訳): Transientangelo: 単光Lidarを用いた多視点表面再構成
- Authors: Weihan Luo, Anagh Malik, David B. Lindell,
- Abstract要約: ライダーは、ターゲットに光のパルスを放出し、反射光の光速遅延を記録することで、3Dシーンの幾何学を捉えている。
従来のライダーシステムは、後方散乱光の生で捕獲された波形を出力しない。
我々は,光子ノイズに対するロバスト性を向上させる新しい正則化戦略を開発し,画素あたり10光子程度で正確な表面再構成を可能にする。
- 参考スコア(独自算出の注目度): 8.464054039931245
- License:
- Abstract: We consider the problem of few-viewpoint 3D surface reconstruction using raw measurements from a lidar system. Lidar captures 3D scene geometry by emitting pulses of light to a target and recording the speed-of-light time delay of the reflected light. However, conventional lidar systems do not output the raw, captured waveforms of backscattered light; instead, they pre-process these data into a 3D point cloud. Since this procedure typically does not accurately model the noise statistics of the system, exploit spatial priors, or incorporate information about downstream tasks, it ultimately discards useful information that is encoded in raw measurements of backscattered light. Here, we propose to leverage raw measurements captured with a single-photon lidar system from multiple viewpoints to optimize a neural surface representation of a scene. The measurements consist of time-resolved photon count histograms, or transients, which capture information about backscattered light at picosecond time scales. Additionally, we develop new regularization strategies that improve robustness to photon noise, enabling accurate surface reconstruction with as few as 10 photons per pixel. Our method outperforms other techniques for few-viewpoint 3D reconstruction based on depth maps, point clouds, or conventional lidar as demonstrated in simulation and with captured data.
- Abstract(参考訳): そこで本研究では,ライダーシステムからの生測値を用いて,少数視点3次元表面再構成の問題点を考察する。
ライダーは、ターゲットに光のパルスを放出し、反射光の光速遅延を記録することで、3Dシーンの幾何学を捉えている。
しかし、従来のライダーシステムは、後方散乱光の生で捕獲された波形を出力せず、代わりにこれらのデータを3Dポイントクラウドに前処理する。
この手順は、通常、システムのノイズ統計を正確にモデル化したり、空間的先行情報を利用したり、下流のタスクに関する情報を組み込んだりしないため、最終的に後方散乱光の生測値に符号化された有用な情報を捨てる。
本稿では,複数の視点から単一光子ライダーシステムを用いて得られた生測値を利用して,シーンの神経表面表現を最適化する手法を提案する。
この測定は、ピコ秒の時間スケールで後方散乱光に関する情報をキャプチャする時間分解光子計数ヒストグラム(英語版)またはトランジェントから構成される。
さらに,光子ノイズに対するロバスト性を向上させる新たな正則化手法を開発し,画素あたり10光子程度で正確な表面再構成を可能にする。
提案手法は,シミュレーションやキャプチャデータを用いて,深度マップ,点雲,あるいは従来のライダーに基づく少数視点3次元再構成において,他の手法よりも優れる。
関連論文リスト
- bit2bit: 1-bit quanta video reconstruction via self-supervised photon prediction [57.199618102578576]
疎二分量時間画像データから高画質の画像スタックを元の解像度で再構成する新しい方法であるbit2bitを提案する。
Poisson denoisingの最近の研究に触発されて、スパースバイナリ光子データから高密度な画像列を生成するアルゴリズムを開発した。
本研究では,様々な課題の画像条件下でのSPADの高速映像を多種多種に含む新しいデータセットを提案する。
論文 参考訳(メタデータ) (2024-10-30T17:30:35Z) - MM3DGS SLAM: Multi-modal 3D Gaussian Splatting for SLAM Using Vision, Depth, and Inertial Measurements [59.70107451308687]
カメラ画像と慣性測定による地図表現に3Dガウスアンを用いることで、精度の高いSLAMが実現できることを示す。
我々の手法であるMM3DGSは、より高速なスケール認識と軌道追跡の改善により、事前レンダリングの限界に対処する。
また,カメラと慣性測定ユニットを備えた移動ロボットから収集したマルチモーダルデータセットUT-MMもリリースした。
論文 参考訳(メタデータ) (2024-04-01T04:57:41Z) - PlatoNeRF: 3D Reconstruction in Plato's Cave via Single-View Two-Bounce Lidar [25.332440946211236]
単一視点からの3次元再構成は、単眼視からの曖昧さと閉鎖領域に関する情報の欠如により困難である。
単一光子アバランシェダイオードで捉えた飛行時間データを用いてこれらの制限を克服する。
我々は、制御された環境照明やシーンアルベドに頼らず、データの先行や依存なしに、可視・隠蔽幾何を再構築できることを実証した。
論文 参考訳(メタデータ) (2023-12-21T18:59:53Z) - Single-pixel 3D imaging based on fusion temporal data of single photon
detector and millimeter-wave radar [18.68262179213498]
本稿では,1画素単光子検出器とミリ波レーダを用いた融合データに基づく3Dイメージング手法を提案する。
ニューラルネットワーク(ANN)を用いて1次元融合時間データから3次元情報を再構成する。
論文 参考訳(メタデータ) (2023-10-20T13:03:48Z) - Shakes on a Plane: Unsupervised Depth Estimation from Unstabilized
Photography [54.36608424943729]
2秒で取得した12メガピクセルのRAWフレームの「長バースト」では,自然手震動のみからの視差情報で高品質のシーン深度を回復できることが示されている。
我々は、長時間バーストデータにニューラルRGB-D表現を適合させるテスト時間最適化手法を考案し、シーン深度とカメラモーションを同時に推定する。
論文 参考訳(メタデータ) (2022-12-22T18:54:34Z) - A CNN Based Approach for the Point-Light Photometric Stereo Problem [26.958763133729846]
本稿では、遠距離場光度ステレオにおける深部ニューラルネットワークの最近の改良を活用して、現実的な仮定を処理できるCNNベースのアプローチを提案する。
われわれのアプローチは、DiLiGenT実世界のデータセットの最先端よりも優れている。
近距離点光源PSデータに対する我々のアプローチの性能を測定するため、LUCESを「近距離点光のための最初の実世界のデータセット」として紹介する。
論文 参考訳(メタデータ) (2022-10-10T12:57:12Z) - When the Sun Goes Down: Repairing Photometric Losses for All-Day Depth
Estimation [47.617222712429026]
既存の測光損失を昼夜両方の画像に有効にするための3つの手法の組み合わせについて述べる。
まず、連続するフレーム間で起こる光の変化を補うために、ピクセルごとの神経強度変換を導入する。
第2に,推定エゴモーションと深度によって引き起こされる再投影対応を補正するために,画素ごとの残留フローマップを推定する。
論文 参考訳(メタデータ) (2022-06-28T09:29:55Z) - Sketched RT3D: How to reconstruct billions of photons per second [12.212273177719227]
単光子光の検出と測光(ライダー)は、3Dシーンの深さと強度情報をキャプチャする。
観測された光子からシーンを再構成することは、背景照明源に付随する急激な検出のために難しい課題である。
本稿では,空間的に正規化された再構成を実現するために点雲デノイザを用いた最新の最先端アルゴリズムのスケッチ版を提案する。
論文 参考訳(メタデータ) (2022-03-02T09:02:52Z) - Towards Non-Line-of-Sight Photography [48.491977359971855]
非視線イメージング(NLOS)は、隠された物体からの多重バウンス間接反射を捉えることに基づいている。
アクティブなNLOSイメージングシステムは、シーンを通しての光の飛行時間の捕捉に依存している。
我々はNLOS写真と呼ばれる新しい問題定式化を提案し、この欠陥に特に対処する。
論文 参考訳(メタデータ) (2021-09-16T08:07:13Z) - Learning to Recover 3D Scene Shape from a Single Image [98.20106822614392]
まず,未知のスケールまで深さを予測し,単一の単眼画像からシフトする2段階フレームワークを提案する。
そして、3dポイントクラウドエンコーダを使って深度シフトと焦点距離を予測し、リアルな3dシーンの形状を復元します。
論文 参考訳(メタデータ) (2020-12-17T02:35:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。