論文の概要: Omni-Line-of-Sight Imaging for Holistic Shape Reconstruction
- arxiv url: http://arxiv.org/abs/2304.10780v1
- Date: Fri, 21 Apr 2023 07:12:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-24 15:40:51.461073
- Title: Omni-Line-of-Sight Imaging for Holistic Shape Reconstruction
- Title(参考訳): 全体形状再構成のための全視線イメージング
- Authors: Binbin Huang, Xingyue Peng, Siyuan Shen, Suan Xia, Ruiqian Li, Yanhua
Yu, Yuehan Wang, Shenghua Gao, Wenzheng Chen, Shiying Li, Jingyi Yu
- Abstract要約: 複素物体の全体的形状再構成(HSR)を行うニューラル・コンピュータ・イメージング法であるOmni-LOSを紹介する。
本手法により, 物体の周囲形状を1つの走査点から360円付近で再現できる。
- 参考スコア(独自算出の注目度): 45.955894009809185
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce Omni-LOS, a neural computational imaging method for conducting
holistic shape reconstruction (HSR) of complex objects utilizing a
Single-Photon Avalanche Diode (SPAD)-based time-of-flight sensor. As
illustrated in Fig. 1, our method enables new capabilities to reconstruct
near-$360^\circ$ surrounding geometry of an object from a single scan spot. In
such a scenario, traditional line-of-sight (LOS) imaging methods only see the
front part of the object and typically fail to recover the occluded back
regions. Inspired by recent advances of non-line-of-sight (NLOS) imaging
techniques which have demonstrated great power to reconstruct occluded objects,
Omni-LOS marries LOS and NLOS together, leveraging their complementary
advantages to jointly recover the holistic shape of the object from a single
scan position. The core of our method is to put the object nearby diffuse walls
and augment the LOS scan in the front view with the NLOS scans from the
surrounding walls, which serve as virtual ``mirrors'' to trap lights toward the
object. Instead of separately recovering the LOS and NLOS signals, we adopt an
implicit neural network to represent the object, analogous to NeRF and NeTF.
While transients are measured along straight rays in LOS but over the spherical
wavefronts in NLOS, we derive differentiable ray propagation models to
simultaneously model both types of transient measurements so that the NLOS
reconstruction also takes into account the direct LOS measurements and vice
versa. We further develop a proof-of-concept Omni-LOS hardware prototype for
real-world validation. Comprehensive experiments on various wall settings
demonstrate that Omni-LOS successfully resolves shape ambiguities caused by
occlusions, achieves high-fidelity 3D scan quality, and manages to recover
objects of various scales and complexity.
- Abstract(参考訳): 本稿では,単光子アバランシェダイオード(spad)を用いた飛行時間センサを用いた複合物体の全体形状再構成(hsr)を行う,神経計算イメージング手法であるomni-losを提案する。
図1に示すように、この手法では、1つのスキャンスポットからオブジェクトの周囲形状を約$360^\circ$で再構成することができる。
このようなシナリオでは、従来のlos(line-of-sight)イメージング手法では、対象の前方部分のみを視認し、通常、遮蔽された後方領域を回復できない。
近年のnlos(non-line-of-sight)イメージング技術の進歩に触発されて、omni-losはロスとnlosを共に結婚させ、単一のスキャン位置から物体の全体像を復元する補完的な利点を生かした。
本手法のコアとなるのは,被写体を周囲の拡散壁の近傍に配置し,周囲の壁からのNLOSスキャンでLOSスキャンを前面に拡大し,物体に向かって光をトラップする仮想「鏡」として機能させることである。
我々はLOS信号とNLOS信号を別々に復元する代わりに、暗黙のニューラルネットワークを用いて物体を表現し、NeRFやNeTFと類似する。
NLOS の球面波面上ではなく直列光線に沿って過渡度を計測する一方で、NLOS の直列光線を同時にモデル化し、NLOS の再構成も直接LOS の測定を考慮し、その逆も考慮する。
さらに,概念実証のためのOmni-LOSハードウェアプロトタイプを開発した。
Omni-LOSは, 閉塞による形状のあいまいさの解消に成功し, 高忠実度3Dスキャン品質を実現し, 様々なスケールや複雑さの物体の回収に成功した。
関連論文リスト
- Towards 3D Vision with Low-Cost Single-Photon Cameras [24.711165102559438]
小型で省エネで低コストな単光子カメラによる計測に基づいて,任意のランベルト物体の3次元形状を再構成する手法を提案する。
我々の研究は、画像ベースモデリングとアクティブレンジスキャンの関連性を引き合いに出し、単光子カメラによる3Dビジョンに向けた一歩である。
論文 参考訳(メタデータ) (2024-03-26T15:40:05Z) - Towards Scalable Multi-View Reconstruction of Geometry and Materials [27.660389147094715]
本稿では,3次元シーンのカメラポーズ,オブジェクト形状,空間変化の両方向反射分布関数(svBRDF)のジョイントリカバリ手法を提案する。
入力は高解像度のRGBD画像であり、アクティブ照明用の点灯付き携帯型ハンドヘルドキャプチャシステムによってキャプチャされる。
論文 参考訳(メタデータ) (2023-06-06T15:07:39Z) - Shape, Pose, and Appearance from a Single Image via Bootstrapped
Radiance Field Inversion [54.151979979158085]
提案手法では,自然画像に対する基本的エンドツーエンド再構築フレームワークを導入し,正確な地平のポーズが得られない。
そこで,モデルが解の第一の推算を生成するハイブリッド・インバージョン・スキームを適用する。
当社のフレームワークでは,イメージを10ステップでデレンダリングすることが可能で,現実的なシナリオで使用することが可能です。
論文 参考訳(メタデータ) (2022-11-21T17:42:42Z) - Few-shot Non-line-of-sight Imaging with Signal-surface Collaborative
Regularization [18.466941045530408]
非視線イメージング技術は、多重反射光からターゲットを再構成することを目的としている。
最小限の測定回数でノイズロバストを再現する信号表面の協調正規化フレームワークを提案する。
我々のアプローチは、救助活動や自律運転といったリアルタイム非視線画像アプリケーションにおいて大きな可能性を秘めている。
論文 参考訳(メタデータ) (2022-11-21T11:19:20Z) - Neural 3D Reconstruction in the Wild [86.6264706256377]
そこで我々は,インターネット写真コレクションから効率よく高精度な表面再構成を実現する新しい手法を提案する。
そこで本研究では,これらのシーンにおける再構成性能を評価するための新しいベンチマークとプロトコルを提案する。
論文 参考訳(メタデータ) (2022-05-25T17:59:53Z) - Real-time Non-line-of-sight Imaging with Two-step Deep Remapping [0.0]
非視線(NLOS)イメージングは、間接光を考慮に入れます。
ほとんどのソリューションは過渡走査プロセスを使用し、続いてNLOSシーンを再構築するためのバックプロジェクションベースのアルゴリズムが続く。
ここでは、上記の欠陥に対処する新しいNLOSソリューションを提案し、検出装置と再構成アルゴリズムの両方に革新をもたらす。
論文 参考訳(メタデータ) (2021-01-26T00:08:54Z) - Polka Lines: Learning Structured Illumination and Reconstruction for
Active Stereo [52.68109922159688]
本稿では,波動光学と幾何光学の両方に依存した,アクティブステレオのための新しい微分可能な画像形成モデルと,新しい三眼再構成ネットワークを提案する。
Polka Lines" を再現ネットワークと組み合わせた共同最適化パターンは, 撮像条件全体にわたって, 最先端のアクティブステレオ深度推定を達成している。
論文 参考訳(メタデータ) (2020-11-26T04:02:43Z) - Efficient Non-Line-of-Sight Imaging from Transient Sinograms [36.154873075911404]
非視線(NLOS)イメージング技術は、角の周囲を見るために可視表面(例えば壁)から拡散的に反射する光を使用する。
1つのアプローチは、パルスレーザーと超高速センサーを使用して、多重散乱光の移動時間を測定することである。
より効率的なNLOSスキャン方式を提案する。
論文 参考訳(メタデータ) (2020-08-06T17:50:50Z) - Limited-angle tomographic reconstruction of dense layered objects by
dynamical machine learning [68.9515120904028]
強い散乱準透明物体の有限角トモグラフィーは困難で、非常に不適切な問題である。
このような問題の状況を改善することにより、アーティファクトの削減には、事前の定期化が必要である。
我々は,新しい分割畳み込みゲート再帰ユニット(SC-GRU)をビルディングブロックとして,リカレントニューラルネットワーク(RNN)アーキテクチャを考案した。
論文 参考訳(メタデータ) (2020-07-21T11:48:22Z) - Single View Metrology in the Wild [94.7005246862618]
本研究では,物体の3次元の高さや地上のカメラの高さで表現されるシーンの絶対的なスケールを再現する,単一ビューメロジに対する新しいアプローチを提案する。
本手法は,被写体の高さなどの3Dエンティティによる未知のカメラとの相互作用から,弱い教師付き制約を抑えるために設計されたディープネットワークによって学習されたデータ駆動の先行情報に依存する。
いくつかのデータセットと仮想オブジェクト挿入を含むアプリケーションに対して、最先端の定性的かつ定量的な結果を示す。
論文 参考訳(メタデータ) (2020-07-18T22:31:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。