論文の概要: 360DVO: Deep Visual Odometry for Monocular 360-Degree Camera
- arxiv url: http://arxiv.org/abs/2601.02309v1
- Date: Mon, 05 Jan 2026 17:52:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-06 16:25:23.337576
- Title: 360DVO: Deep Visual Odometry for Monocular 360-Degree Camera
- Title(参考訳): 360DVO:単眼360度カメラの深部光学
- Authors: Xiaopeng Guo, Yinzhe Xu, Huajian Huang, Sai-Kit Yeung,
- Abstract要約: 深層学習に基づく全方位視覚計測フレームワークである360DVOを提案する。
提案手法では,360度画像から歪み耐性特徴を適応的に学習する歪み対応球面特徴抽出器を提案する。
現実的な設定での評価を容易にするため、我々は新しい実世界のOVOベンチマークにも貢献する。
- 参考スコア(独自算出の注目度): 21.809610765423656
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Monocular omnidirectional visual odometry (OVO) systems leverage 360-degree cameras to overcome field-of-view limitations of perspective VO systems. However, existing methods, reliant on handcrafted features or photometric objectives, often lack robustness in challenging scenarios, such as aggressive motion and varying illumination. To address this, we present 360DVO, the first deep learning-based OVO framework. Our approach introduces a distortion-aware spherical feature extractor (DAS-Feat) that adaptively learns distortion-resistant features from 360-degree images. These sparse feature patches are then used to establish constraints for effective pose estimation within a novel omnidirectional differentiable bundle adjustment (ODBA) module. To facilitate evaluation in realistic settings, we also contribute a new real-world OVO benchmark. Extensive experiments on this benchmark and public synthetic datasets (TartanAir V2 and 360VO) demonstrate that 360DVO surpasses state-of-the-art baselines (including 360VO and OpenVSLAM), improving robustness by 50% and accuracy by 37.5%. Homepage: https://chris1004336379.github.io/360DVO-homepage
- Abstract(参考訳): OVOシステムは、視野VOシステムの視野制限を克服するために360度カメラを利用する。
しかし、手作りの特徴や測光目的に依存した既存の手法は、しばしば攻撃的な動きや様々な照明といった挑戦的なシナリオにおいて頑丈さを欠いている。
これを解決するために,最初のディープラーニングベースのOVOフレームワークである360DVOを提案する。
提案手法では, 歪み認識型球面特徴抽出器 (DAS-Feat) を360度画像から適応的に学習する。
これらのスパースな特徴パッチは、新しい全方向微分可能バンドル調整(ODBA)モジュール内で効果的なポーズ推定の制約を確立するために使用される。
現実的な設定での評価を容易にするため、我々は新しい実世界のOVOベンチマークにも貢献する。
このベンチマークと公開合成データセット(TartanAir V2と360VO)の大規模な実験により、360DVOは最先端のベースライン(360VOとOpenVSLAMを含む)を超え、ロバスト性は50%向上し、精度は37.5%向上した。
ホームページ:https://chris1004336379.github.io/360DVO- homepage
関連論文リスト
- Depth Anything in $360^\circ$: Towards Scale Invariance in the Wild [12.6239596554452]
私たちはDepth Anythingを、Depth Anything V2のパノラマ適応版である$360circ$(DA360)で紹介します。
我々の重要なイノベーションは、ViTバックボーンからシフトパラメータを学習し、モデルのスケール不変およびシフト不変の出力をスケール不変の見積に変換することです。
論文 参考訳(メタデータ) (2025-12-28T07:12:58Z) - BRIGHT-VO: Brightness-Guided Hybrid Transformer for Visual Odometry with Multi-modality Refinement Module [11.898515581215708]
視覚計測(VO)は、自律運転、ロボットナビゲーション、その他の関連するタスクにおいて重要な役割を果たす。
本稿では,トランスフォーマーアーキテクチャに基づく新しいVOモデルであるBrightVOを紹介し,フロントエンドの視覚的特徴抽出を行う。
ポーズグラフ最適化を用いて、このモジュールは、エラーを減らし、精度とロバスト性の両方を改善するために、ポーズ推定を反復的に洗練する。
論文 参考訳(メタデータ) (2025-01-15T08:50:52Z) - Revisiting 360 Depth Estimation with PanoGabor: A New Fusion Perspective [89.53522682640337]
本稿では,これらの課題に対処するため,指向性歪みを考慮したGabor Fusionフレームワーク(PGFuse)を提案する。
再帰的歪みに対処するために、線形緯度対応の歪み表現法を設計し、カスタマイズされた歪み対応ガボルフィルタを生成する。
ガボル変換の配向感度を考慮すると、この感度を安定させるために球面勾配制約を導入する。
論文 参考訳(メタデータ) (2024-08-29T02:58:35Z) - Depth Anywhere: Enhancing 360 Monocular Depth Estimation via Perspective Distillation and Unlabeled Data Augmentation [6.832852988957967]
ラベルのない360度データを効果的に活用する新しい深度推定フレームワークを提案する。
提案手法では,教師モデルとして最先端の視点深度推定モデルを用いて擬似ラベルを生成する。
我々は、Matterport3DやStanford2D3Dといったベンチマークデータセットに対するアプローチを検証し、深さ推定精度を大幅に改善した。
論文 参考訳(メタデータ) (2024-06-18T17:59:31Z) - SDGE: Stereo Guided Depth Estimation for 360$^\circ$ Camera Sets [65.64958606221069]
マルチカメラシステムは、360ドル周の知覚を達成するために、しばしば自律走行に使用される。
360ドル(約3万3000円)のカメラセットは、しばしば制限または低品質のオーバーラップ領域を持ち、画像全体に対してマルチビューステレオメソッドを実現する。
重なりの重なりに多視点ステレオ結果を明示的に利用することにより、全画像の深さ推定を強化するステレオガイド深度推定法(SGDE)を提案する。
論文 参考訳(メタデータ) (2024-02-19T02:41:37Z) - Assessor360: Multi-sequence Network for Blind Omnidirectional Image
Quality Assessment [50.82681686110528]
Blind Omnidirectional Image Quality Assessment (BOIQA)は、全方位画像(ODI)の人間の知覚品質を客観的に評価することを目的としている。
ODIの品質評価は、既存のBOIQAパイプラインがオブザーバのブラウジングプロセスのモデリングを欠いているという事実によって著しく妨げられている。
Assessor360と呼ばれるBOIQAのための新しいマルチシーケンスネットワークを提案する。
論文 参考訳(メタデータ) (2023-05-18T13:55:28Z) - Fully Convolutional One-Stage 3D Object Detection on LiDAR Range Images [96.66271207089096]
FCOS-LiDARは、自律走行シーンのLiDAR点雲のための完全な1段式3Dオブジェクト検出器である。
標準的な2Dコンボリューションを持つRVベースの3D検出器は、最先端のBEVベースの検出器と同等の性能を発揮することを示す。
論文 参考訳(メタデータ) (2022-05-27T05:42:16Z) - D3VO: Deep Depth, Deep Pose and Deep Uncertainty for Monocular Visual
Odometry [57.5549733585324]
D3VOは、深度、ポーズ、不確実性推定という3つのレベルでディープネットワークを利用する、単眼の視覚計測のための新しいフレームワークである。
まず,ステレオビデオを用いた自己監督型単眼深度推定ネットワークを提案する。
入力画像上の画素の光度不確かさをモデル化し、深度推定精度を向上させる。
論文 参考訳(メタデータ) (2020-03-02T17:47:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。