論文の概要: INGeo: Accelerating Instant Neural Scene Reconstruction with Noisy
Geometry Priors
- arxiv url: http://arxiv.org/abs/2212.01959v1
- Date: Mon, 5 Dec 2022 00:19:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-06 17:26:16.834551
- Title: INGeo: Accelerating Instant Neural Scene Reconstruction with Noisy
Geometry Priors
- Title(参考訳): INGeo:ノイズ幾何学の先行したインスタントニューラルネットワークシーン再構築
- Authors: Chaojian Li, Bichen Wu, Albert Pumarola, Peizhao Zhang, Yingyan Lin,
and Peter Vajda
- Abstract要約: 携帯電話やAR/VRヘッドセットなどのエッジデバイス上での即時再構築を実現することを目的とした,3Dシーンやオブジェクトの再構築を高速化する手法を提案する。
我々は,高度に最適化されたInstant-NGP上でのトレーニング速度を高速化するために,不完全形状のノイズを緩和する戦略を提案する。
- 参考スコア(独自算出の注目度): 42.45657739169377
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a method that accelerates reconstruction of 3D scenes and objects,
aiming to enable instant reconstruction on edge devices such as mobile phones
and AR/VR headsets. While recent works have accelerated scene reconstruction
training to minute/second-level on high-end GPUs, there is still a large gap to
the goal of instant training on edge devices which is yet highly desired in
many emerging applications such as immersive AR/VR. To this end, this work aims
to further accelerate training by leveraging geometry priors of the target
scene. Our method proposes strategies to alleviate the noise of the imperfect
geometry priors to accelerate the training speed on top of the highly optimized
Instant-NGP. On the NeRF Synthetic dataset, our work uses half of the training
iterations to reach an average test PSNR of >30.
- Abstract(参考訳): 本稿では,携帯電話やAR/VRヘッドセットなどのエッジデバイスにおいて,3Dシーンやオブジェクトの再構築を高速化する手法を提案する。
最近の研究は、シーン再構築のトレーニングをハイエンドGPUで分/秒レベルに加速しているが、没入型AR/VRのような新興アプリケーションでは依然として非常に望まれているエッジデバイスでの即時トレーニングという目標には大きなギャップがある。
この目的のために,本研究は,対象シーンの幾何学的先行を生かして,トレーニングをさらに加速することを目的としている。
提案手法は,高度に最適化されたInstant-NGP上でのトレーニング速度を向上するために,不完全形状のノイズを緩和する戦略を提案する。
NeRF Syntheticデータセットでは、トレーニングの繰り返しの半分を使用して、平均的なPSNR > 30 に達する。
関連論文リスト
- Towards End-to-End Neuromorphic Voxel-based 3D Object Reconstruction Without Physical Priors [0.0]
ニューロモルフィックカメラを用いた高密度ボクセル3次元再構成のためのエンドツーエンド手法を提案する。
本手法は, ベースライン法に比べて54.6%の再現精度向上を実現している。
論文 参考訳(メタデータ) (2025-01-01T06:07:03Z) - Speedy-Splat: Fast 3D Gaussian Splatting with Sparse Pixels and Sparse Primitives [60.217580865237835]
3D Gaussian Splatting (3D-GS)は、3D Gaussian のパラメトリック点雲としてシーンをモデル化することで、新しいビューをリアルタイムにレンダリングすることのできる最近の3Dシーン再構築技術である。
3D-GSでは,レンダリング速度,モデルサイズ,トレーニング時間の大幅な改善を実現し,2つの重要な非効率性に対処する。
我々のSpeedy-Splatアプローチはこれらのテクニックを組み合わせることで、Mip-NeRF 360、Tamps & Temples、Deep Blendingのデータセットから、平均レンダリング速度を6.71ドル(約6万6000円)で加速します。
論文 参考訳(メタデータ) (2024-11-30T20:25:56Z) - T-3DGS: Removing Transient Objects for 3D Scene Reconstruction [83.05271859398779]
ガウススプラッティングを用いた3次元シーン再構成のための入力ビデオから一貫したオブジェクトを除去する新しいフレームワークを提案する。
以上の結果から,既存の疎捕捉データセットにおける技術の現状と,新たに提案した高密度キャプチャ(ビデオ)データセットの大幅な改善が示された。
論文 参考訳(メタデータ) (2024-11-29T07:45:24Z) - SpikeGS: 3D Gaussian Splatting from Spike Streams with High-Speed Camera Motion [46.23575738669567]
新しいビュー合成は、3Dシーンのマルチビュー画像から新しい2Dレンダリングを生成することで重要な役割を果たす。
高フレームレートの高密度3D再構成は、現実世界の物体やシーンの詳細なモデリングを可能にする重要な技術として現れる。
スパイクカメラは、新しいタイプのニューロモルフィックセンサーであり、超高時間分解能でシーンを継続的に記録する。
論文 参考訳(メタデータ) (2024-07-14T03:19:30Z) - PUP 3D-GS: Principled Uncertainty Pruning for 3D Gaussian Splatting [59.277480452459315]
本研究では,視覚的忠実度と前景の細部を高い圧縮比で保持する原理的感度プルーニングスコアを提案する。
また,トレーニングパイプラインを変更することなく,事前訓練した任意の3D-GSモデルに適用可能な複数ラウンドプルーファインパイプラインを提案する。
論文 参考訳(メタデータ) (2024-06-14T17:53:55Z) - HFGS: 4D Gaussian Splatting with Emphasis on Spatial and Temporal High-Frequency Components for Endoscopic Scene Reconstruction [13.012536387221669]
ロボット支援による最小侵襲手術は、手術結果を改善するため、動的シーン再構築の強化による恩恵を受ける。
NeRFはシーン再構成に有効だが、推論速度の遅さとトレーニング期間の長いため適用性が制限されている。
3D Gaussian Splatting (3D-GS) ベースの手法が最近のトレンドとして現れ、高速な推論機能と優れた3D品質を提供する。
本稿では,空間的および時間的周波数の観点からこれらの課題に対処する,変形可能な内視鏡再構成のための新しいアプローチであるHFGSを提案する。
論文 参考訳(メタデータ) (2024-05-28T06:48:02Z) - Instant Continual Learning of Neural Radiance Fields [78.08008474313809]
ニューラルレイディアンス場(NeRF)は,新規な視点合成と3次元シーン再構成の有効な方法として出現している。
本稿では,リプレイに基づく手法とハイブリッドな明示的シーン表現を併用したNeRFの連続学習フレームワークを提案する。
提案手法は, 連続的な環境下での学習において, 従来手法よりも高い精度で再現性能を向上すると同時に, 桁違いの高速化を図っている。
論文 参考訳(メタデータ) (2023-09-04T21:01:55Z) - Fast Monocular Scene Reconstruction with Global-Sparse Local-Dense Grids [84.90863397388776]
本稿では,スパルス・ボクセル・ブロック・グリッドにおける署名付き距離関数(SDF)を直接使用して,距離のない高速かつ正確なシーン再構成を実現することを提案する。
我々の世界規模で疎密で局所的なデータ構造は、表面の空間的空間性を利用して、キャッシュフレンドリーなクエリを可能にし、マルチモーダルデータへの直接拡張を可能にします。
実験により、我々のアプローチはトレーニングでは10倍、レンダリングでは100倍高速であり、最先端のニューラル暗黙法に匹敵する精度を実現していることがわかった。
論文 参考訳(メタデータ) (2023-05-22T16:50:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。