論文の概要: Sketched RT3D: How to reconstruct billions of photons per second
- arxiv url: http://arxiv.org/abs/2203.00952v1
- Date: Wed, 2 Mar 2022 09:02:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-03 15:57:59.157522
- Title: Sketched RT3D: How to reconstruct billions of photons per second
- Title(参考訳): Sketched RT3D:毎秒数十億光子を再構築する方法
- Authors: Juli\'an Tachella and Michael P. Sheehan and Mike E. Davies
- Abstract要約: 単光子光の検出と測光(ライダー)は、3Dシーンの深さと強度情報をキャプチャする。
観測された光子からシーンを再構成することは、背景照明源に付随する急激な検出のために難しい課題である。
本稿では,空間的に正規化された再構成を実現するために点雲デノイザを用いた最新の最先端アルゴリズムのスケッチ版を提案する。
- 参考スコア(独自算出の注目度): 12.212273177719227
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Single-photon light detection and ranging (lidar) captures depth and
intensity information of a 3D scene. Reconstructing a scene from observed
photons is a challenging task due to spurious detections associated with
background illumination sources. To tackle this problem, there is a plethora of
3D reconstruction algorithms which exploit spatial regularity of natural scenes
to provide stable reconstructions. However, most existing algorithms have
computational and memory complexity proportional to the number of recorded
photons. This complexity hinders their real-time deployment on modern lidar
arrays which acquire billions of photons per second. Leveraging a recent lidar
sketching framework, we show that it is possible to modify existing
reconstruction algorithms such that they only require a small sketch of the
photon information. In particular, we propose a sketched version of a recent
state-of-the-art algorithm which uses point cloud denoisers to provide
spatially regularized reconstructions. A series of experiments performed on
real lidar datasets demonstrates a significant reduction of execution time and
memory requirements, while achieving the same reconstruction performance than
in the full data case.
- Abstract(参考訳): lidar(single-photon light detection and ranging)は、3dシーンの深さと強度情報をキャプチャする。
観測された光子からのシーンの再構成は、背景照明源に関連するスプリアス検出のために難しい課題である。
この問題に対処するため,自然景観の空間的規則性を利用して安定的な復元を行う3次元再構成アルゴリズムが多数存在する。
しかし、既存のアルゴリズムの多くは、記録された光子数に比例する計算量とメモリの複雑さを持っている。
この複雑さは、毎秒数十億光子を獲得している現代のlidarアレイのリアルタイム展開を妨げる。
近年のライダースケッチフレームワークを活用することで,光子情報の小さなスケッチのみを必要とするように,既存の再構成アルゴリズムを修正可能であることを示す。
特に,ポイントクラウドデノイザを用いて空間的に規則化された再構成を行う,最新の最先端アルゴリズムのスケッチ版を提案する。
実際のlidarデータセットで実施された一連の実験は、完全なデータケースと同じ復元性能を達成しながら、実行時間とメモリ要求を大幅に削減することを示している。
関連論文リスト
- bit2bit: 1-bit quanta video reconstruction via self-supervised photon prediction [57.199618102578576]
疎二分量時間画像データから高画質の画像スタックを元の解像度で再構成する新しい方法であるbit2bitを提案する。
Poisson denoisingの最近の研究に触発されて、スパースバイナリ光子データから高密度な画像列を生成するアルゴリズムを開発した。
本研究では,様々な課題の画像条件下でのSPADの高速映像を多種多種に含む新しいデータセットを提案する。
論文 参考訳(メタデータ) (2024-10-30T17:30:35Z) - Transientangelo: Few-Viewpoint Surface Reconstruction Using Single-Photon Lidar [8.464054039931245]
ライダーは、ターゲットに光のパルスを放出し、反射光の光速遅延を記録することで、3Dシーンの幾何学を捉えている。
従来のライダーシステムは、後方散乱光の生で捕獲された波形を出力しない。
我々は,光子ノイズに対するロバスト性を向上させる新しい正則化戦略を開発し,画素あたり10光子程度で正確な表面再構成を可能にする。
論文 参考訳(メタデータ) (2024-08-22T08:12:09Z) - Reconstructing Satellites in 3D from Amateur Telescope Images [44.20773507571372]
本稿では、小型アマチュア望遠鏡で撮影した映像を利用して、低地球軌道上の衛星の3次元再構成のための枠組みを提案する。
これらの望遠鏡から得られたビデオデータは、激しい動きのぼかし、大気の乱流、広汎な背景光汚染、焦点距離の延長、観測視点の制約など、標準的な3D再構成作業のデータと大きく異なる。
我々は,中国の宇宙ステーションの合成データセットと実際の観測データを用いて,地上観測から3次元空間オブジェクトを再構築する既存の手法に対する大きな優位性を示す。
論文 参考訳(メタデータ) (2024-04-29T03:13:09Z) - AugUndo: Scaling Up Augmentations for Monocular Depth Completion and Estimation [51.143540967290114]
本研究では,教師なし深度計算と推定のために,従来不可能であった幾何拡張の幅広い範囲をアンロックする手法を提案する。
これは、出力深さの座標への幾何変換を反転、あるいはアンドウイング(undo''-ing)し、深度マップを元の参照フレームに戻すことで達成される。
論文 参考訳(メタデータ) (2023-10-15T05:15:45Z) - BS3D: Building-scale 3D Reconstruction from RGB-D Images [25.604775584883413]
本稿では,消費者向け深度カメラを用いた大規模3次元再構築のための使い易いフレームワークを提案する。
複雑で高価な買収設定とは異なり、当社のシステムはクラウドソーシングを可能にする。
論文 参考訳(メタデータ) (2023-01-03T11:46:14Z) - Curvature regularization for Non-line-of-sight Imaging from
Under-sampled Data [5.591221518341613]
非視線イメージング(NLOS)は、視線で測定されたデータから3次元の隠れたシーンを再構築することを目的としている。
曲率正規化に基づく新しいNLOS再構成モデルを提案する。
提案したアルゴリズムを,合成データセットと実データセットの両方で評価する。
論文 参考訳(メタデータ) (2023-01-01T14:10:43Z) - Shakes on a Plane: Unsupervised Depth Estimation from Unstabilized
Photography [54.36608424943729]
2秒で取得した12メガピクセルのRAWフレームの「長バースト」では,自然手震動のみからの視差情報で高品質のシーン深度を回復できることが示されている。
我々は、長時間バーストデータにニューラルRGB-D表現を適合させるテスト時間最適化手法を考案し、シーン深度とカメラモーションを同時に推定する。
論文 参考訳(メタデータ) (2022-12-22T18:54:34Z) - Neural 3D Reconstruction in the Wild [86.6264706256377]
そこで我々は,インターネット写真コレクションから効率よく高精度な表面再構成を実現する新しい手法を提案する。
そこで本研究では,これらのシーンにおける再構成性能を評価するための新しいベンチマークとプロトコルを提案する。
論文 参考訳(メタデータ) (2022-05-25T17:59:53Z) - Towards Non-Line-of-Sight Photography [48.491977359971855]
非視線イメージング(NLOS)は、隠された物体からの多重バウンス間接反射を捉えることに基づいている。
アクティブなNLOSイメージングシステムは、シーンを通しての光の飛行時間の捕捉に依存している。
我々はNLOS写真と呼ばれる新しい問題定式化を提案し、この欠陥に特に対処する。
論文 参考訳(メタデータ) (2021-09-16T08:07:13Z) - MVSNeRF: Fast Generalizable Radiance Field Reconstruction from
Multi-View Stereo [52.329580781898116]
MVSNeRFは、ビュー合成のための神経放射場を効率的に再構築できる新しいニューラルレンダリング手法である。
高密度にキャプチャされた画像に対して,シーン毎の最適化を考慮に入れたニューラルネットワークの先行研究とは異なり,高速ネットワーク推論により,近傍の3つの入力ビューのみからラミアンスフィールドを再構成できる汎用ディープニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2021-03-29T13:15:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。