論文の概要: Reducing Drift in Structure From Motion Using Extended Features
- arxiv url: http://arxiv.org/abs/2008.12295v3
- Date: Wed, 14 Oct 2020 01:59:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-24 08:12:56.943437
- Title: Reducing Drift in Structure From Motion Using Extended Features
- Title(参考訳): 拡張特徴を用いた構造物のドリフトの低減
- Authors: Aleksander Holynski, David Geraghty, Jan-Michael Frahm, Chris Sweeney,
Richard Szeliski
- Abstract要約: 低周波長範囲誤差(ドリフト)は3次元構造における運動からの固有問題である。
本研究では,平面や消失点などの拡張された構造特徴を用いて,スケールと位置のドリフトを劇的に低減する手法を提案する。
- 参考スコア(独自算出の注目度): 82.37566035407689
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Low-frequency long-range errors (drift) are an endemic problem in 3D
structure from motion, and can often hamper reasonable reconstructions of the
scene. In this paper, we present a method to dramatically reduce scale and
positional drift by using extended structural features such as planes and
vanishing points. Unlike traditional feature matches, our extended features are
able to span non-overlapping input images, and hence provide long-range
constraints on the scale and shape of the reconstruction. We add these features
as additional constraints to a state-of-the-art global structure from motion
algorithm and demonstrate that the added constraints enable the reconstruction
of particularly drift-prone sequences such as long, low field-of-view videos
without inertial measurements. Additionally, we provide an analysis of the
drift-reducing capabilities of these constraints by evaluating on a synthetic
dataset. Our structural features are able to significantly reduce drift for
scenes that contain long-spanning man-made structures, such as aligned rows of
windows or planar building facades.
- Abstract(参考訳): 低周波長範囲誤差(drift)は3次元構造における運動からの固有問題であり、しばしばシーンの合理的な再構成を妨げる。
本稿では,平面や消失点などの拡張構造的特徴を用いて,スケールと位置ドリフトを劇的に低減する手法を提案する。
従来の特徴マッチングとは異なり、拡張された特徴は重複しない入力画像にまたがることができ、したがって復元の規模と形状に長い範囲の制約を与えることができる。
これらの特徴を,運動アルゴリズムによる最先端のグローバル構造に対する付加的な制約として追加し,その付加制約により,慣性的な計測を伴わずに,長視野の低視野映像などのドリフトプロン系列を再構築できることを実証する。
さらに, 合成データセット上での評価により, これらの制約のドリフト低減能力の解析を行う。
我々の構造的特徴は、窓の列や平面的な建物ファサードなど、長々とした人造構造を含むシーンのドリフトを著しく低減することができる。
関連論文リスト
- BloomScene: Lightweight Structured 3D Gaussian Splatting for Crossmodal Scene Generation [16.00575923179227]
3Dシーンは非常に複雑な構造を持ち、出力が密度が高く、一貫性があり、必要な全ての構造を含むことを保証する必要がある。
現在の3Dシーン生成法は、事前訓練されたテキスト・画像拡散モデルと単眼深度推定器に依存している。
クロスモーダルシーン生成のための軽量な3次元ガウススプラッティングであるBloomSceneを提案する。
論文 参考訳(メタデータ) (2025-01-15T11:33:34Z) - CoStruction: Conjoint radiance field optimization for urban scene reconStruction with limited image overlap [2.946747492685909]
CoStructionは、カメラのオーバーラップが制限された大きな駆動シーケンスに適した、新しいハイブリッドな暗黙的表面再構成手法である。
本手法は, 複雑な都市シナリオにおける微細構造とともに, 大面積の正確な再構成を実現するためのガイド付きサンプリングに加えて, 両方の放射場を共同で最適化する。
論文 参考訳(メタデータ) (2025-01-07T16:48:47Z) - Robust Incremental Structure-from-Motion with Hybrid Features [73.55745864762703]
本稿では,線とその構造的幾何学的関係を利用した漸進的構造移動システム(SfM)を提案する。
我々のシステムは、SfMの広く使われている点ベースの技術と比較すると、一貫して堅牢で正確である。
論文 参考訳(メタデータ) (2024-09-29T22:20:32Z) - SMORE: Simulataneous Map and Object REconstruction [66.66729715211642]
本稿では,LiDARから大規模都市景観を動的に再現する手法を提案する。
我々は、世界が厳格に動く物体と背景に分解される動的なシーンの構成モデルを総合的に捉え、最適化する。
論文 参考訳(メタデータ) (2024-06-19T23:53:31Z) - Robust Geometry-Preserving Depth Estimation Using Differentiable
Rendering [93.94371335579321]
我々は、余分なデータやアノテーションを必要とせずに、幾何学保存深度を予測するためにモデルを訓練する学習フレームワークを提案する。
包括的な実験は、我々のフレームワークの優れた一般化能力を強調します。
我々の革新的な損失関数は、ドメイン固有のスケール・アンド・シフト係数を自律的に復元するモデルを可能にします。
論文 参考訳(メタデータ) (2023-09-18T12:36:39Z) - BLiRF: Bandlimited Radiance Fields for Dynamic Scene Modeling [43.246536947828844]
本稿では,帯域制限された高次元信号の合成としてシーンを定式化し,時間と空間を分解するフレームワークを提案する。
我々は、照明、テクスチャ、長距離ダイナミクスの変化を含む複雑な動的シーンにまたがる魅力的な結果を実証する。
論文 参考訳(メタデータ) (2023-02-27T06:40:32Z) - Enforcing connectivity of 3D linear structures using their 2D
projections [54.0598511446694]
本稿では,2次元投影におけるトポロジ認識損失の総和を最小化することにより,結果の3次元接続性を改善することを提案する。
これにより、精度の向上と、アノテーション付きトレーニングデータの提供に必要なアノテーションの労力の削減が図られる。
論文 参考訳(メタデータ) (2022-07-14T11:42:18Z) - Coarse to Fine Multi-Resolution Temporal Convolutional Network [25.08516972520265]
本稿では,シークエンス断片化問題に対処する新しいテンポラルエンコーダデコーダを提案する。
デコーダは、複数の時間分解能の暗黙のアンサンブルを持つ粗い微細構造に従う。
実験により、我々のスタンドアローンアーキテクチャは、新しい機能拡張戦略と新しい損失と共に、3つの時間的ビデオセグメンテーションベンチマークで最先端のパフォーマンスを達成していることが示された。
論文 参考訳(メタデータ) (2021-05-23T06:07:40Z) - Vid2Curve: Simultaneous Camera Motion Estimation and Thin Structure
Reconstruction from an RGB Video [90.93141123721713]
ワイヤーフレーム彫刻、フェンス、ケーブル、電力線、木の枝などの細い構造は現実世界では一般的である。
従来の画像ベースや深度ベースの再構築手法を用いて3Dデジタルモデルを入手することは極めて困難である。
ハンドヘルドカメラで撮影したカラービデオから,カメラの動きを同時に推定し,複雑な3次元薄膜構造の形状を高品質に再構成する手法を提案する。
論文 参考訳(メタデータ) (2020-05-07T10:39:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。