論文の概要: Event-based Motion-Robust Accurate Shape Estimation for Mixed
Reflectance Scenes
- arxiv url: http://arxiv.org/abs/2311.09652v1
- Date: Thu, 16 Nov 2023 08:12:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-17 15:46:05.283885
- Title: Event-based Motion-Robust Accurate Shape Estimation for Mixed
Reflectance Scenes
- Title(参考訳): 混合反射シーンにおけるイベントベースモーションロバスト高精度形状推定
- Authors: Aniket Dashpute, Jiazhang Wang, James Taylor, Oliver Cossairt, Ashok
Veeraraghavan, Florian Willomitzer
- Abstract要約: 本稿では,複合反射シーンの高速3次元イメージングを高精度に実現したイベントベース構造化光システムを提案する。
我々は、測定された反射を本質的に拡散、2バウンススペクトル、その他の多重バウンス反射に分解できるエピポーラ制約を用いる。
このシステムは,500,mu$mの精度で混合反射シーンの高速かつモーションロバストな再構成を実現する。
- 参考スコア(独自算出の注目度): 17.446182782836747
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Event-based structured light systems have recently been introduced as an
exciting alternative to conventional frame-based triangulation systems for the
3D measurements of diffuse surfaces. Important benefits include the fast
capture speed and the high dynamic range provided by the event camera - albeit
at the cost of lower data quality. So far, both low-accuracy event-based as
well as high-accuracy frame-based 3D imaging systems are tailored to a specific
surface type, such as diffuse or specular, and can not be used for a broader
class of object surfaces ("mixed reflectance scenes"). In this paper, we
present a novel event-based structured light system that enables fast 3D
imaging of mixed reflectance scenes with high accuracy. On the captured events,
we use epipolar constraints that intrinsically enable decomposing the measured
reflections into diffuse, two-bounce specular, and other multi-bounce
reflections. The diffuse objects in the scene are reconstructed using
triangulation. Eventually, the reconstructed diffuse scene parts are used as a
"display" to evaluate the specular scene parts via deflectometry. This novel
procedure allows us to use the entire scene as a virtual screen, using only a
scanning laser and an event camera. The resulting system achieves fast and
motion-robust (14Hz) reconstructions of mixed reflectance scenes with < 500
$\mu$m accuracy. Moreover, we introduce a "superfast" capture mode (250Hz) for
the 3D measurement of diffuse scenes.
- Abstract(参考訳): イベントベースの構造化光システムは、拡散面の3次元計測のための従来のフレームベースの三角測量システムのエキサイティングな代替として最近導入された。
重要なメリットは、データ品質が低くても、高速キャプチャ速度とイベントカメラが提供するダイナミックレンジだ。
これまでのところ、低精度のイベントベースと高精度のフレームベースの3Dイメージングシステムは、拡散やスペクトルのような特定の表面タイプに調整されており、より広い種類の物体表面には使用できない("mixed Reflectance scene")。
本稿では,複合反射シーンの高速3次元画像化を高精度に行うイベントベースの構造化光システムを提案する。
得られた事象に対して、本質的に測定された反射を拡散、2バウンススペクトルおよび他の多重バウンス反射に分解できるエピポーラ制約を用いる。
シーン内の拡散物体は三角測量により再構成される。
最終的に、再構成された拡散シーン部を「表示」として、偏向測定により鏡面シーン部を評価する。
本手法では, 走査レーザとイベントカメラのみを用いて, シーン全体を仮想スクリーンとして使用することができる。
得られたシステムは500ドル以下の精度で混合反射シーンの高速かつ運動ロバスト(14hz)再構成を実現する。
さらに,拡散シーンの3次元計測のための「超高速」キャプチャモード(250Hz)を導入する。
関連論文リスト
- E-3DGS: Gaussian Splatting with Exposure and Motion Events [29.042018288378447]
イベントを動作と露出に分割するイベントベースの新しいアプローチであるE-3DGSを提案する。
露光イベントと3DGSの新たな統合を導入し,明示的なシーン表現を高品質に再現する。
提案手法は,NeRF法よりもコスト効率が高く,イベントベースのNeRFよりも再現性が高い。
論文 参考訳(メタデータ) (2024-10-22T13:17:20Z) - EF-3DGS: Event-Aided Free-Trajectory 3D Gaussian Splatting [76.02450110026747]
生物学的ビジョンにインスパイアされたイベントカメラは、時間分解能の高い画素の強度を非同期に記録する。
本稿では,イベントカメラの利点を3DGSにシームレスに統合するイベント支援フリートラジェクトリ3DGSを提案する。
提案手法を,パブリックタンクとテンプルのベンチマークと,新たに収集した実世界のデータセットであるRealEv-DAVISで評価した。
論文 参考訳(メタデータ) (2024-10-20T13:44:24Z) - Transientangelo: Few-Viewpoint Surface Reconstruction Using Single-Photon Lidar [8.464054039931245]
ライダーは、ターゲットに光のパルスを放出し、反射光の光速遅延を記録することで、3Dシーンの幾何学を捉えている。
従来のライダーシステムは、後方散乱光の生で捕獲された波形を出力しない。
我々は,光子ノイズに対するロバスト性を向上させる新しい正則化戦略を開発し,画素あたり10光子程度で正確な表面再構成を可能にする。
論文 参考訳(メタデータ) (2024-08-22T08:12:09Z) - UniSDF: Unifying Neural Representations for High-Fidelity 3D
Reconstruction of Complex Scenes with Reflections [92.38975002642455]
大規模な複雑なシーンをリフレクションで再構成できる汎用3次元再構成手法UniSDFを提案する。
提案手法は,複雑な大規模シーンを細部と反射面で頑健に再構築することができる。
論文 参考訳(メタデータ) (2023-12-20T18:59:42Z) - ESL: Event-based Structured Light [62.77144631509817]
イベントカメラはバイオインスパイアされたセンサーであり、標準的なカメラよりも大きな利点がある。
本稿では,イベントカメラを用いた新しい構造化光システムを提案し,高精度かつ高速な深度センシングの課題に対処する。
論文 参考訳(メタデータ) (2021-11-30T15:47:39Z) - Event Guided Depth Sensing [50.997474285910734]
バイオインスパイアされたイベントカメラ駆動深度推定アルゴリズムを提案する。
提案手法では,イベントカメラが検出したシーン活動に応じて,関心領域を高密度に照明する。
シミュレーションされた自律運転シーケンスと実際の屋内環境におけるアプローチの実現可能性を示す。
論文 参考訳(メタデータ) (2021-10-20T11:41:11Z) - T\"oRF: Time-of-Flight Radiance Fields for Dynamic Scene View Synthesis [32.878225196378374]
連続波ToFカメラのための画像形成モデルに基づくニューラル表現を提案する。
提案手法は, 動的シーン再構成のロバスト性を改善し, 誤ったキャリブレーションや大きな動きに改善することを示す。
論文 参考訳(メタデータ) (2021-09-30T17:12:59Z) - Neural Reflectance Fields for Appearance Acquisition [61.542001266380375]
シーン内の任意の3次元点における体積密度, 正規および反射特性をエンコードする新しい深部シーン表現であるニューラルリフレクタンス場を提案する。
我々はこの表現を、任意の視点と光の下でニューラルリフレクタンスフィールドから画像を描画できる物理的にベースとした微分可能光線マーチングフレームワークと組み合わせる。
論文 参考訳(メタデータ) (2020-08-09T22:04:36Z) - Event-based Stereo Visual Odometry [42.77238738150496]
ステレオ・イベント・ベースのカメラ・リグが取得したデータから視覚計測の問題に対する解決策を提案する。
我々は,シンプルかつ効率的な表現を用いて,ステレオイベントベースのデータの時間的一貫性を最大化する。
論文 参考訳(メタデータ) (2020-07-30T15:53:28Z) - Deep 3D Capture: Geometry and Reflectance from Sparse Multi-View Images [59.906948203578544]
本稿では,任意の物体の高品質な形状と複雑な空間変化を持つBRDFを再構成する学習に基づく新しい手法を提案する。
まず、深層多視点ステレオネットワークを用いて、ビューごとの深度マップを推定する。
これらの深度マップは、異なるビューを粗く整列するために使用される。
本稿では,新しい多視点反射率推定ネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-03-27T21:28:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。