論文の概要: Domain Reduction Strategy for Non Line of Sight Imaging
- arxiv url: http://arxiv.org/abs/2308.10269v1
- Date: Sun, 20 Aug 2023 14:00:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-22 16:38:49.818060
- Title: Domain Reduction Strategy for Non Line of Sight Imaging
- Title(参考訳): 非直線視覚イメージングのための領域縮小戦略
- Authors: Hyunbo Shim, In Cho, Daekyu Kwon, Seon Joo Kim
- Abstract要約: 本稿では,NLOS(Non-line-of-sight)イメージングのための新しい最適化手法を提案する。
本手法は,隠れ体積の各点から帰還する光子を独立に計算できるという観測に基づいて構築されている。
提案手法は,非平面リレー壁,スパース走査パターン,共焦点・非共焦点・表面形状再構成など,様々なNLOSシナリオにおいて有効であることを示す。
- 参考スコア(独自算出の注目度): 22.365437882740657
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This paper presents a novel optimization-based method for non-line-of-sight
(NLOS) imaging that aims to reconstruct hidden scenes under various setups. Our
method is built upon the observation that photons returning from each point in
hidden volumes can be independently computed if the interactions between hidden
surfaces are trivially ignored. We model the generalized light propagation
function to accurately represent the transients as a linear combination of
these functions. Moreover, our proposed method includes a domain reduction
procedure to exclude empty areas of the hidden volumes from the set of
propagation functions, thereby improving computational efficiency of the
optimization. We demonstrate the effectiveness of the method in various NLOS
scenarios, including non-planar relay wall, sparse scanning patterns, confocal
and non-confocal, and surface geometry reconstruction. Experiments conducted on
both synthetic and real-world data clearly support the superiority and the
efficiency of the proposed method in general NLOS scenarios.
- Abstract(参考訳): 本稿では,様々な環境下で隠れたシーンを再構築することを目的とした,非線形画像(NLOS)の新たな最適化手法を提案する。
本手法は,隠れた表面間の相互作用が自明に無視される場合,隠れた体積の各点から戻る光子を独立に計算できることを示す。
一般化光伝搬関数をモデル化し、これらの関数の線形結合としてトランジェントを正確に表現する。
さらに,提案手法は,伝搬関数の集合から隠れたボリュームの空領域を除外し,最適化の計算効率を向上させるための領域縮小手順を含む。
非平面リレー壁,スパース走査パターン,共焦点および非共焦点,表面形状再構成など,様々なnlosシナリオにおいて本手法の有効性を示す。
合成データと実世界のデータの両方で行った実験は、一般的なNLOSシナリオにおける提案手法の優位性と効率性を明確に裏付けるものである。
関連論文リスト
- DGTR: Distributed Gaussian Turbo-Reconstruction for Sparse-View Vast Scenes [81.56206845824572]
新規ビュー合成(NVS)アプローチは、広大なシーン再構築において重要な役割を担っている。
大規模な環境下では、復元の質が悪くなる場合が少なくない。
本稿では,スパース・ビュー・ワイド・シーンのための効率的なガウス再構成のための分散フレームワークであるDGTRを提案する。
論文 参考訳(メタデータ) (2024-11-19T07:51:44Z) - Reprojection Errors as Prompts for Efficient Scene Coordinate Regression [9.039259735902625]
シーン座標回帰(SCR)法は、正確な視覚的位置決めの可能性から、将来的な研究分野として浮上している。
既存のSCRアプローチの多くは、動的オブジェクトやテクスチャレス領域を含む、すべてのイメージ領域からのサンプルをトレーニングする。
我々は,Segment Anything Model (SAM) を用いて,誤り誘導型特徴選択機構を導入する。
このメカニズムは、プロンプトとして低い再投射領域を発生させ、それらをエラー誘導マスクに拡張し、これらのマスクを使用して点をサンプリングし、問題領域を反復的にフィルタリングする。
論文 参考訳(メタデータ) (2024-09-06T10:43:34Z) - GeoGaussian: Geometry-aware Gaussian Splatting for Scene Rendering [83.19049705653072]
ガウススプレイティング最適化の過程で、その構造が意図的に保存されていない場合、シーンの幾何学は徐々に悪化する。
我々はこの問題を緩和するためにGeoGaussianと呼ばれる新しいアプローチを提案する。
提案するパイプラインは、新しいビュー合成と幾何再構成において最先端の性能を達成する。
論文 参考訳(メタデータ) (2024-03-17T20:06:41Z) - LoLep: Single-View View Synthesis with Locally-Learned Planes and
Self-Attention Occlusion Inference [66.45326873274908]
本稿では,1枚のRGB画像から局所学習平面を回帰してシーンを正確に表現するLoLepを提案する。
MINEと比較して、LPIPSは4.8%-9.0%、RVは73.9%-83.5%である。
論文 参考訳(メタデータ) (2023-07-23T03:38:55Z) - Distributed Neural Representation for Reactive in situ Visualization [23.80657290203846]
Inlicit Neural representations (INR) は、大規模ボリュームデータを圧縮するための強力なツールとして登場した。
分散ニューラル表現を開発し,それをその場での可視化に最適化する。
我々の技術はプロセス間のデータ交換を排除し、最先端の圧縮速度、品質、比率を達成する。
論文 参考訳(メタデータ) (2023-03-28T03:55:47Z) - A Particle-based Sparse Gaussian Process Optimizer [5.672919245950197]
本稿では,下降の動的過程を利用した新しいスワム・スワムベースのフレームワークを提案する。
このアプローチの最大の利点は、降下を決定する前に現在の状態についてより深い探索を行うことである。
論文 参考訳(メタデータ) (2022-11-26T09:06:15Z) - NerfingMVS: Guided Optimization of Neural Radiance Fields for Indoor
Multi-view Stereo [97.07453889070574]
本稿では,従来のSfM再構成と学習に基づく先行手法を併用した多視点深度推定手法を提案する。
提案手法は室内シーンにおける最先端手法を著しく上回ることを示す。
論文 参考訳(メタデータ) (2021-09-02T17:54:31Z) - Light Field Reconstruction Using Convolutional Network on EPI and
Extended Applications [78.63280020581662]
スパースビューからの光場再構成のための新しい畳み込みニューラルネットワーク(CNN)ベースのフレームワークを開発した。
最先端のアルゴリズムと比較して,提案フレームワークの高性能と堅牢性を実証する。
論文 参考訳(メタデータ) (2021-03-24T08:16:32Z) - Monocular Real-Time Volumetric Performance Capture [28.481131687883256]
本稿では,モノクロ映像から実時間速度でボリューム・パフォーマンス・キャプチャとノベル・ビュー・レンダリングを行うための最初のアプローチを提案する。
このシステムは,Pixel-Aligned Implicit Function (PIFu)を活用して,各フレームから完全にテクスチャ化された3次元人体を再構成する。
また,オンラインハード・サンプル・マイニング(OHEM)技術を導入し,難題の稀な発生により,障害モードを効果的に抑制する手法を提案する。
論文 参考訳(メタデータ) (2020-07-28T04:45:13Z) - Extrapolation for Large-batch Training in Deep Learning [72.61259487233214]
我々は、バリエーションのホストが、我々が提案する統一されたフレームワークでカバー可能であることを示す。
本稿では,この手法の収束性を証明し,ResNet,LSTM,Transformer上での経験的性能を厳格に評価する。
論文 参考訳(メタデータ) (2020-06-10T08:22:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。