論文の概要: Towards End-to-End Neuromorphic Voxel-based 3D Object Reconstruction Without Physical Priors
- arxiv url: http://arxiv.org/abs/2501.00741v1
- Date: Wed, 01 Jan 2025 06:07:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-05 17:16:25.804363
- Title: Towards End-to-End Neuromorphic Voxel-based 3D Object Reconstruction Without Physical Priors
- Title(参考訳): 身体的優先を伴わない終末型神経形Voxel-based 3D Object Restructionに向けて
- Authors: Chuanzhi Xu, Langyi Chen, Vincent Qu, Haodong Chen, Vera Chung,
- Abstract要約: ニューロモルフィックカメラを用いた高密度ボクセル3次元再構成のためのエンドツーエンド手法を提案する。
本手法は, ベースライン法に比べて54.6%の再現精度向上を実現している。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Neuromorphic cameras, also known as event cameras, are asynchronous brightness-change sensors that can capture extremely fast motion without suffering from motion blur, making them particularly promising for 3D reconstruction in extreme environments. However, existing research on 3D reconstruction using monocular neuromorphic cameras is limited, and most of the methods rely on estimating physical priors and employ complex multi-step pipelines. In this work, we propose an end-to-end method for dense voxel 3D reconstruction using neuromorphic cameras that eliminates the need to estimate physical priors. Our method incorporates a novel event representation to enhance edge features, enabling the proposed feature-enhancement model to learn more effectively. Additionally, we introduced Optimal Binarization Threshold Selection Principle as a guideline for future related work, using the optimal reconstruction results achieved with threshold optimization as the benchmark. Our method achieves a 54.6% improvement in reconstruction accuracy compared to the baseline method.
- Abstract(参考訳): イベントカメラとしても知られるニューロモルフィックカメラは非同期の明るさ変化センサーで、動きのぼやけに悩まされることなく非常に速い動きを捉えることができる。
しかし,既存のモノクラーニューロモルフィックカメラを用いた3次元再構成の研究は限られており,多くの手法は物理的事前推定に依存しており,複雑な多段階パイプラインを採用している。
本研究では,ニューロモルフィックカメラを用いた高密度ボクセル3次元再構成のエンド・ツー・エンド手法を提案する。
提案手法では,新たなイベント表現を組み込んでエッジ機能を強化し,提案する特徴強調モデルをより効果的に学習する。
さらに, しきい値最適化をベンチマークとして達成した最適再構成結果を用いて, 将来の作業のガイドラインとして最適二元化閾値選択原理を導入した。
本手法は, ベースライン法に比べて54.6%の再現精度向上を実現している。
関連論文リスト
- USP-Gaussian: Unifying Spike-based Image Reconstruction, Pose Correction and Gaussian Splatting [45.246178004823534]
スパイクカメラは、0-1ビットストリームを40kHzで撮影する革新的なニューロモルフィックカメラとして、ますます3D再構成タスクに採用されている。
以前のスパイクベースの3D再構成アプローチでは、ケースケースのパイプラインを使うことが多い。
本稿では,スパイクに基づく画像再構成,ポーズ補正,ガウス的スプラッティングをエンドツーエンドのフレームワークに統一する,相乗的最適化フレームワーク textbfUSP-Gaussian を提案する。
論文 参考訳(メタデータ) (2024-11-15T14:15:16Z) - Implicit Shape and Appearance Priors for Few-Shot Full Head
Reconstruction [17.254539604491303]
本稿では,数発のフル3次元頭部再構成の問題点に対処する。
我々は、座標に基づく表現に先立って確率的形状と外観を組み込むことにより、これを達成した。
我々はH3DSデータセットを拡張し、60個の高解像度3Dフルヘッドスキャンと対応する画像とマスクを含む。
論文 参考訳(メタデータ) (2023-10-12T07:35:30Z) - FrozenRecon: Pose-free 3D Scene Reconstruction with Frozen Depth Models [67.96827539201071]
本稿では,3次元シーン再構成のための新しいテスト時間最適化手法を提案する。
本手法は5つのゼロショットテストデータセット上で,最先端のクロスデータセット再構築を実現する。
論文 参考訳(メタデータ) (2023-08-10T17:55:02Z) - Neural Lens Modeling [50.57409162437732]
NeuroLens(ニューロレンス)は、点投影と光線鋳造に使用できる歪みと磁化のための神経レンズモデルである。
古典的なキャリブレーションターゲットを使用してプリキャプチャのキャリブレーションを行うことができ、後に3D再構成の際にキャリブレーションやリファインメントを行うために使用できる。
このモデルは、多くのレンズタイプにまたがって一般化されており、既存の3D再構成とレンダリングシステムとの統合は容易である。
論文 参考訳(メタデータ) (2023-04-10T20:09:17Z) - InFusionSurf: Refining Neural RGB-D Surface Reconstruction Using Per-Frame Intrinsic Refinement and TSDF Fusion Prior Learning [4.406340836209291]
RGB-Dビデオフレームを用いた3次元表面再構成におけるNeRFフレームワークの革新的拡張であるInFusionSurfを導入する。
InFusionSurfは、フレームごとの固有の精細化スキームを通じて、深度フレーム内のカメラモーションによって引き起こされるぼかしに対処する。
それは、古典的なリアルタイム3D表面再構成法であるTSDF Fusionを事前訓練ツールとして組み込んでいる。
論文 参考訳(メタデータ) (2023-03-08T10:57:14Z) - MonoSDF: Exploring Monocular Geometric Cues for Neural Implicit Surface
Reconstruction [72.05649682685197]
最先端のニューラル暗黙法は、多くの入力ビューから単純なシーンの高品質な再構築を可能にする。
これは主に、十分な制約を提供していないRGB再構築損失の固有の曖昧さによって引き起こされる。
近年の単分子形状予測の分野での進歩に触発され, ニューラルな暗黙的表面再構成の改善にこれらの方法が役立つかを探究する。
論文 参考訳(メタデータ) (2022-06-01T17:58:15Z) - Neural 3D Reconstruction in the Wild [86.6264706256377]
そこで我々は,インターネット写真コレクションから効率よく高精度な表面再構成を実現する新しい手法を提案する。
そこで本研究では,これらのシーンにおける再構成性能を評価するための新しいベンチマークとプロトコルを提案する。
論文 参考訳(メタデータ) (2022-05-25T17:59:53Z) - Fast-GANFIT: Generative Adversarial Network for High Fidelity 3D Face
Reconstruction [76.1612334630256]
我々は、GAN(Generative Adversarial Networks)とDCNN(Deep Convolutional Neural Networks)の力を利用して、単一画像から顔のテクスチャと形状を再構築する。
3次元顔再構成を保存したフォトリアリスティックでアイデンティティに優れた結果を示し, 初めて, 高精度な顔テクスチャ再構成を実現する。
論文 参考訳(メタデータ) (2021-05-16T16:35:44Z) - Riggable 3D Face Reconstruction via In-Network Optimization [58.016067611038046]
本稿では,単眼画像からの3次元顔再構成法を提案する。
表情、ポーズ、照明を含む画像ごとのパーソナライズされた顔リグとパラメータを共同で推定する。
実験により,SOTA復元精度,ロバスト性,一般化能力が得られた。
論文 参考訳(メタデータ) (2021-04-08T03:53:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。