論文の概要: CodedVO: Coded Visual Odometry
- arxiv url: http://arxiv.org/abs/2407.18240v1
- Date: Thu, 25 Jul 2024 17:54:58 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-26 13:09:36.662879
- Title: CodedVO: Coded Visual Odometry
- Title(参考訳): CodedVO: Coded Visual Odometry
- Authors: Sachin Shah, Naitri Rajyaguru, Chahat Deep Singh, Christopher Metzler, Yiannis Aloimonos,
- Abstract要約: CodedVOは,広義の視差を克服する新しい単眼視覚計測法である。
室内環境の多様性を実証し,その堅牢性と適応性を示す。
- 参考スコア(独自算出の注目度): 11.33375308762075
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Autonomous robots often rely on monocular cameras for odometry estimation and navigation. However, the scale ambiguity problem presents a critical barrier to effective monocular visual odometry. In this paper, we present CodedVO, a novel monocular visual odometry method that overcomes the scale ambiguity problem by employing custom optics to physically encode metric depth information into imagery. By incorporating this information into our odometry pipeline, we achieve state-of-the-art performance in monocular visual odometry with a known scale. We evaluate our method in diverse indoor environments and demonstrate its robustness and adaptability. We achieve a 0.08m average trajectory error in odometry evaluation on the ICL-NUIM indoor odometry dataset.
- Abstract(参考訳): 自律ロボットはしばしば、計測とナビゲーションのために単眼カメラに頼っている。
しかし、スケールのあいまいさの問題は、効果的な単眼視覚計測にとって重要な障壁となる。
本稿では,一眼レフの視線深度情報を物理的に画像にエンコードするカスタム光学を用いて,視線あいさを克服する新しい単眼視覚計測手法であるCodedVOを提案する。
この情報をオドメトリパイプラインに組み込むことで,モノクローナル・ビジュアル・オドメトリにおける最先端の性能を既知のスケールで達成する。
本手法を屋内環境の多様さで評価し,その堅牢性と適応性を示す。
ICL-NUIM屋内検体を用いた検体評価において平均軌道誤差0.08mを達成した。
関連論文リスト
- Inertial Guided Uncertainty Estimation of Feature Correspondence in
Visual-Inertial Odometry/SLAM [8.136426395547893]
慣性ガイダンスを用いて特徴対応の不確かさを推定する手法を提案する。
また,近年の視覚-慣性オドメトリー/SLAMアルゴリズムの1つに組み込むことにより,本手法の有効性を実証する。
論文 参考訳(メタデータ) (2023-11-07T04:56:29Z) - The Drunkard's Odometry: Estimating Camera Motion in Deforming Scenes [79.00228778543553]
このデータセットは、3Dシーンの中で地上の真実を語る最初の大規模なカメラ軌道である。
リアルな3Dビルディングのシミュレーションでは、膨大な量のデータと地上の真実のラベルが得られます。
本稿では,光学的フロー推定を剛体カメラ運動に分解するDrunkard's Odometryと呼ばれる,変形可能な新しいオドメトリー法を提案する。
論文 参考訳(メタデータ) (2023-06-29T13:09:31Z) - Transformer-based model for monocular visual odometry: a video
understanding approach [0.9790236766474201]
6-Fカメラのポーズを推定するために,映像理解タスクとして単眼視計測を取り扱う。
本稿では,ビデオクリップから特徴を抽出し,その動作をエンドツーエンドに推定する,時間的自己認識機構に基づくTS-DoVOモデルを提案する。
提案手法は,KITTIビジュアル・オドメトリー・データセットを用いた幾何学的,深層学習的手法と比較して,最先端の競合性能を実現した。
論文 参考訳(メタデータ) (2023-05-10T13:11:23Z) - Dense Prediction Transformer for Scale Estimation in Monocular Visual
Odometry [0.0]
本論文は, 単眼視覚計測システムにおけるスケール推定における高密度予測変換器モデルの適用性を示す。
実験結果から, 単分子系のスケールドリフト問題は, 深度マップの正確な推定により低減できることが示唆された。
論文 参考訳(メタデータ) (2022-10-04T16:29:21Z) - Information-Theoretic Odometry Learning [83.36195426897768]
生体計測推定を目的とした学習動機付け手法のための統合情報理論フレームワークを提案する。
提案フレームワークは情報理論言語の性能評価と理解のためのエレガントなツールを提供する。
論文 参考訳(メタデータ) (2022-03-11T02:37:35Z) - Probabilistic and Geometric Depth: Detecting Objects in Perspective [78.00922683083776]
3次元物体検出は、運転支援システムなどの様々な実用用途で必要とされる重要な機能である。
双眼視やLiDARに頼っている従来の設定に比べて、経済的な解決策として単眼3D検出が注目されているが、それでも満足のいく結果が得られていない。
本稿ではまず,この問題に関する系統的研究を行い,現在の単分子3次元検出問題をインスタンス深度推定問題として単純化できることを考察する。
論文 参考訳(メタデータ) (2021-07-29T16:30:33Z) - MBA-VO: Motion Blur Aware Visual Odometry [99.56896875807635]
運動のぼかしは視覚計測法に残る主要な課題の1つである。
露光時間が長い低照度条件では、比較的遅いカメラの動きでも動きのぼやけが現れます。
露光時間内にカメラの局所軌道をモデル化し,推定する,直接的なアプローチによる新しいハイブリッド視覚オドメトリーパイプラインを提案する。
論文 参考訳(メタデータ) (2021-03-25T09:02:56Z) - A Review of Visual Odometry Methods and Its Applications for Autonomous
Driving [0.0]
本稿では,自律運転に重点を置き,視覚計測に係わる手法を概観する。
研究の現状で直面する問題を概説し、レビューした作品を要約するために議論が展開される。
論文 参考訳(メタデータ) (2020-09-19T09:13:27Z) - Beyond Photometric Consistency: Gradient-based Dissimilarity for
Improving Visual Odometry and Stereo Matching [46.27086269084186]
本稿では,光度誤差の考え方に基づく画像の登録のための新しい指標について検討する。
ステレオ推定とビジュアルオドメトリーシステムの両方に統合し、典型的な相違と直接画像登録タスクに明確な利点を示す。
論文 参考訳(メタデータ) (2020-04-08T16:13:25Z) - D3VO: Deep Depth, Deep Pose and Deep Uncertainty for Monocular Visual
Odometry [57.5549733585324]
D3VOは、深度、ポーズ、不確実性推定という3つのレベルでディープネットワークを利用する、単眼の視覚計測のための新しいフレームワークである。
まず,ステレオビデオを用いた自己監督型単眼深度推定ネットワークを提案する。
入力画像上の画素の光度不確かさをモデル化し、深度推定精度を向上させる。
論文 参考訳(メタデータ) (2020-03-02T17:47:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。