論文の概要: ViSTA-SLAM: Visual SLAM with Symmetric Two-view Association
- arxiv url: http://arxiv.org/abs/2509.01584v1
- Date: Mon, 01 Sep 2025 16:12:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 15:17:03.767527
- Title: ViSTA-SLAM: Visual SLAM with Symmetric Two-view Association
- Title(参考訳): ViSTA-SLAM: 対称2ビューアソシエーションによるビジュアルSLAM
- Authors: Ganlin Zhang, Shenhan Qian, Xi Wang, Daniel Cremers,
- Abstract要約: ViSTA-SLAMは、カメラのクロージャを必要とせずに動作するリアルタイムの単眼視SLAMシステムである。
提案手法は, カメラトラッキングと高密度3次元再構成品質の両方において, 優れた性能を実現する。
- 参考スコア(独自算出の注目度): 52.34293412010292
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: We present ViSTA-SLAM as a real-time monocular visual SLAM system that operates without requiring camera intrinsics, making it broadly applicable across diverse camera setups. At its core, the system employs a lightweight symmetric two-view association (STA) model as the frontend, which simultaneously estimates relative camera poses and regresses local pointmaps from only two RGB images. This design reduces model complexity significantly, the size of our frontend is only 35\% that of comparable state-of-the-art methods, while enhancing the quality of two-view constraints used in the pipeline. In the backend, we construct a specially designed Sim(3) pose graph that incorporates loop closures to address accumulated drift. Extensive experiments demonstrate that our approach achieves superior performance in both camera tracking and dense 3D reconstruction quality compared to current methods. Github repository: https://github.com/zhangganlin/vista-slam
- Abstract(参考訳): 本稿では,VISTA-SLAMを,カメラ固有の機能を必要としないリアルタイム単眼視SLAMシステムとして提案する。
システムの中心となるのは、2つのRGB画像のみから、相対的なカメラのポーズを推定し、局所的なポイントマップを回帰する、軽量対称2ビューアソシエーション(STA)モデルである。
この設計は、モデルの複雑さを大幅に減らし、フロントエンドのサイズは、パイプラインで使用される2ビューの制約の品質を高めながら、同等の最先端メソッドの35倍しかありません。
バックエンドでは,蓄積ドリフトに対応するループクロージャを組み込んだ,特別に設計されたSim(3)ポーズグラフを構築している。
広汎な実験により, カメラトラッキングと高密度3次元再構成品質の両面において, 従来の手法と比較して優れた性能が得られた。
Githubリポジトリ:https://github.com/zhangganlin/vista-slam
関連論文リスト
- MASt3R-SLAM: Real-Time Dense SLAM with 3D Reconstruction Priors [15.764342766592808]
我々はMASt3Rからボトムアップを設計したリアルタイム単分子高密度SLAMシステムを提案する。
本システムは固定カメラモデルやパラメトリックカメラモデルでは仮定しないが,Wild ビデオシーケンス上では堅牢である。
論文 参考訳(メタデータ) (2024-12-16T23:00:05Z) - SLAM3R: Real-Time Dense Scene Reconstruction from Monocular RGB Videos [33.57444419305241]
SLAM3Rは、RGBビデオを用いたリアルタイム、高品質、高密度な3D再構成のための新しいシステムである。
フィードフォワードニューラルネットワークを通じて、ローカルな3D再構成とグローバルな座標登録をシームレスに統合する。
20FPS以上のリアルタイム性能を維持しつつ、最先端の復元精度と完全性を達成する。
論文 参考訳(メタデータ) (2024-12-12T16:08:03Z) - Dual-Camera Smooth Zoom on Mobile Phones [55.4114152554769]
我々は、スムーズなズームプレビューを実現するために、新しいタスク、すなわちデュアルカメラスムーズズーム(DCSZ)を導入する。
フレームモデル (FI) 技術は潜在的な解決法であるが、地軸収集に苦慮している。
連続型仮想カメラを組み込んだデータファクトリソリューションを提案し,シーンの再構成された3DモデルをレンダリングしてDCSZデータを生成する。
論文 参考訳(メタデータ) (2024-04-07T10:28:01Z) - InstantSplat: Sparse-view Gaussian Splatting in Seconds [91.77050739918037]
InstantSplatは,光速でスパークビュー3Dシーンを再現する新しい手法である。
InstantSplatでは,3Dシーン表現とカメラポーズを最適化する,自己管理フレームワークを採用している。
3D-GSの従来のSfMと比較して、30倍以上の再現を達成し、視覚的品質(SSIM)を0.3755から0.7624に改善する。
論文 参考訳(メタデータ) (2024-03-29T17:29:58Z) - Structure PLP-SLAM: Efficient Sparse Mapping and Localization using
Point, Line and Plane for Monocular, RGB-D and Stereo Cameras [13.693353009049773]
本稿では,PPRモジュールを組み込んだ高機能カメラローカライゼーションを実現するために,ポイント・ライン・クラウドを用いた視界SLAMシステムを提案する。
再構成された線や平面上での複数の実行時最適化を提案することにより,幾何的プリミティブをスケールのあいまいさで再構築するという課題に対処する。
その結果,提案したSLAMはセマンティック機能をしっかりと組み込んで,トラッキングとバックエンドの最適化を強化していることがわかった。
論文 参考訳(メタデータ) (2022-07-13T09:05:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。