論文の概要: ViSTA-SLAM: Visual SLAM with Symmetric Two-view Association
- arxiv url: http://arxiv.org/abs/2509.01584v1
- Date: Mon, 01 Sep 2025 16:12:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 15:17:03.767527
- Title: ViSTA-SLAM: Visual SLAM with Symmetric Two-view Association
- Title(参考訳): ViSTA-SLAM: 対称2ビューアソシエーションによるビジュアルSLAM
- Authors: Ganlin Zhang, Shenhan Qian, Xi Wang, Daniel Cremers,
- Abstract要約: ViSTA-SLAMは、カメラのクロージャを必要とせずに動作するリアルタイムの単眼視SLAMシステムである。
提案手法は, カメラトラッキングと高密度3次元再構成品質の両方において, 優れた性能を実現する。
- 参考スコア(独自算出の注目度): 52.34293412010292
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: We present ViSTA-SLAM as a real-time monocular visual SLAM system that operates without requiring camera intrinsics, making it broadly applicable across diverse camera setups. At its core, the system employs a lightweight symmetric two-view association (STA) model as the frontend, which simultaneously estimates relative camera poses and regresses local pointmaps from only two RGB images. This design reduces model complexity significantly, the size of our frontend is only 35\% that of comparable state-of-the-art methods, while enhancing the quality of two-view constraints used in the pipeline. In the backend, we construct a specially designed Sim(3) pose graph that incorporates loop closures to address accumulated drift. Extensive experiments demonstrate that our approach achieves superior performance in both camera tracking and dense 3D reconstruction quality compared to current methods. Github repository: https://github.com/zhangganlin/vista-slam
- Abstract(参考訳): 本稿では,VISTA-SLAMを,カメラ固有の機能を必要としないリアルタイム単眼視SLAMシステムとして提案する。
システムの中心となるのは、2つのRGB画像のみから、相対的なカメラのポーズを推定し、局所的なポイントマップを回帰する、軽量対称2ビューアソシエーション(STA)モデルである。
この設計は、モデルの複雑さを大幅に減らし、フロントエンドのサイズは、パイプラインで使用される2ビューの制約の品質を高めながら、同等の最先端メソッドの35倍しかありません。
バックエンドでは,蓄積ドリフトに対応するループクロージャを組み込んだ,特別に設計されたSim(3)ポーズグラフを構築している。
広汎な実験により, カメラトラッキングと高密度3次元再構成品質の両面において, 従来の手法と比較して優れた性能が得られた。
Githubリポジトリ:https://github.com/zhangganlin/vista-slam
関連論文リスト
- 3AM: 3egment Anything with Geometric Consistency in Videos [32.069894075133305]
3AMは、MUSt3Rからの3D認識機能をSAM2に統合するトレーニング時間拡張である。
提案手法では,カメラのポーズや前処理を伴わず,推論時のRGB入力のみを必要とする。
幅広いベースラインモーション(ScanNet++、Replica)を持つ挑戦的なデータセットでは、3AMはSAM2と拡張を大きく上回っている。
論文 参考訳(メタデータ) (2026-01-13T18:59:54Z) - MCGS-SLAM: A Multi-Camera SLAM Framework Using Gaussian Splatting for High-Fidelity Mapping [52.99503784067417]
3次元ガウス平板上に構築した初のRGBベースのマルチカメラSLAMシステムMCGS-SLAM(3DGS)を提案する。
マルチカメラバンドル調整(MCBA)は、高密度の測光および幾何残差を介してポーズと深さを共同で洗練し、スケール整合モジュールはビューを横断する計量アライメントを強制する。
合成および実世界のデータセットの実験は、MCGS-SLAMが一貫して正確な軌道と光現実的再構成をもたらすことを示している。
論文 参考訳(メタデータ) (2025-09-17T17:27:53Z) - cuVSLAM: CUDA accelerated visual odometry and mapping [72.43057259584663]
cuVSLAMは、視覚的同時ローカライゼーションとマッピングのための最先端のソリューションである。
複数のRGBと深度カメラ、慣性測定ユニットなど、さまざまなビジュアル慣性センサースイートで操作できる。
論文 参考訳(メタデータ) (2025-06-04T18:20:17Z) - SEGS-SLAM: Structure-enhanced 3D Gaussian Splatting SLAM with Appearance Embedding [11.512986158947733]
3次元ガウススプラッティング(3D-GS)は、最近、同時局在化とマッピング問題において、新しいビュー合成に革命をもたらした。
本稿では,高品質な光写実性マッピングを実現する3次元ガウス散乱SLAMのSEGS-SLAMを提案する。
論文 参考訳(メタデータ) (2025-01-09T13:50:26Z) - MASt3R-SLAM: Real-Time Dense SLAM with 3D Reconstruction Priors [15.764342766592808]
我々はMASt3Rからボトムアップを設計したリアルタイム単分子高密度SLAMシステムを提案する。
本システムは固定カメラモデルやパラメトリックカメラモデルでは仮定しないが,Wild ビデオシーケンス上では堅牢である。
論文 参考訳(メタデータ) (2024-12-16T23:00:05Z) - SLAM3R: Real-Time Dense Scene Reconstruction from Monocular RGB Videos [33.57444419305241]
SLAM3Rは、RGBビデオを用いたリアルタイム、高品質、高密度な3D再構成のための新しいシステムである。
フィードフォワードニューラルネットワークを通じて、ローカルな3D再構成とグローバルな座標登録をシームレスに統合する。
20FPS以上のリアルタイム性能を維持しつつ、最先端の復元精度と完全性を達成する。
論文 参考訳(メタデータ) (2024-12-12T16:08:03Z) - Dual-Camera Smooth Zoom on Mobile Phones [55.4114152554769]
我々は、スムーズなズームプレビューを実現するために、新しいタスク、すなわちデュアルカメラスムーズズーム(DCSZ)を導入する。
フレームモデル (FI) 技術は潜在的な解決法であるが、地軸収集に苦慮している。
連続型仮想カメラを組み込んだデータファクトリソリューションを提案し,シーンの再構成された3DモデルをレンダリングしてDCSZデータを生成する。
論文 参考訳(メタデータ) (2024-04-07T10:28:01Z) - InstantSplat: Sparse-view Gaussian Splatting in Seconds [91.77050739918037]
InstantSplatは,光速でスパークビュー3Dシーンを再現する新しい手法である。
InstantSplatでは,3Dシーン表現とカメラポーズを最適化する,自己管理フレームワークを採用している。
3D-GSの従来のSfMと比較して、30倍以上の再現を達成し、視覚的品質(SSIM)を0.3755から0.7624に改善する。
論文 参考訳(メタデータ) (2024-03-29T17:29:58Z) - Gaussian Splatting SLAM [16.3858380078553]
単分子SLAMにおける3次元ガウス散乱の最初の応用について述べる。
我々の方法は3fpsで動作し、正確な追跡、マッピング、高品質なレンダリングに必要な表現を統一する。
ライブカメラから高忠実度で連続的に3Dシーンを再構築するためには、いくつかの革新が必要である。
論文 参考訳(メタデータ) (2023-12-11T18:19:04Z) - Structure PLP-SLAM: Efficient Sparse Mapping and Localization using
Point, Line and Plane for Monocular, RGB-D and Stereo Cameras [13.693353009049773]
本稿では,PPRモジュールを組み込んだ高機能カメラローカライゼーションを実現するために,ポイント・ライン・クラウドを用いた視界SLAMシステムを提案する。
再構成された線や平面上での複数の実行時最適化を提案することにより,幾何的プリミティブをスケールのあいまいさで再構築するという課題に対処する。
その結果,提案したSLAMはセマンティック機能をしっかりと組み込んで,トラッキングとバックエンドの最適化を強化していることがわかった。
論文 参考訳(メタデータ) (2022-07-13T09:05:35Z) - Lightweight Multi-View 3D Pose Estimation through Camera-Disentangled
Representation [57.11299763566534]
空間校正カメラで撮影した多視点画像から3次元ポーズを復元する手法を提案する。
我々は3次元形状を利用して、入力画像をカメラ視点から切り離したポーズの潜在表現に融合する。
アーキテクチャは、カメラプロジェクション演算子に学習した表現を条件付け、ビュー当たりの正確な2次元検出を生成する。
論文 参考訳(メタデータ) (2020-04-05T12:52:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。