論文の概要: Exploring Self-Attention for Visual Odometry
- arxiv url: http://arxiv.org/abs/2011.08634v1
- Date: Tue, 17 Nov 2020 13:53:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-24 16:30:11.393978
- Title: Exploring Self-Attention for Visual Odometry
- Title(参考訳): 視覚オドメトリーのための自己注意の探索
- Authors: Hamed Damirchi, Rooholla Khorrambakht and Hamid D. Taghirad
- Abstract要約: そこで本研究では,自己注意を用いてより優れた特徴を抽出し,より優れたオドメトリー性能が得られることを示す。
実験の結果, 自己注意により, 優れた特徴の抽出が可能であり, このような構造が欠如しているネットワークに比べて, 計測性能が向上していることがわかった。
- 参考スコア(独自算出の注目度): 2.9005223064604078
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Visual odometry networks commonly use pretrained optical flow networks in
order to derive the ego-motion between consecutive frames. The features
extracted by these networks represent the motion of all the pixels between
frames. However, due to the existence of dynamic objects and texture-less
surfaces in the scene, the motion information for every image region might not
be reliable for inferring odometry due to the ineffectiveness of dynamic
objects in derivation of the incremental changes in position. Recent works in
this area lack attention mechanisms in their structures to facilitate dynamic
reweighing of the feature maps for extracting more refined egomotion
information. In this paper, we explore the effectiveness of self-attention in
visual odometry. We report qualitative and quantitative results against the
SOTA methods. Furthermore, saliency-based studies alongside specially designed
experiments are utilized to investigate the effect of self-attention on VO. Our
experiments show that using self-attention allows for the extraction of better
features while achieving a better odometry performance compared to networks
that lack such structures.
- Abstract(参考訳): ビジュアルオドメトリーネットワークは、連続するフレーム間のエゴモーションを導出するために、トレーニング済みの光フローネットワークを一般的に使用する。
これらのネットワークから抽出された特徴は、フレーム間のすべてのピクセルの動きを表す。
しかし,シーン内に動的物体とテクスチャのない表面が存在するため,各画像領域の運動情報は,位置の漸進的変化の導出における動的物体の非効率性から,オードメトリーの推測には信頼性が低い。
この領域の最近の研究は、より洗練されたエゴモーション情報を抽出するための特徴マップの動的リウィーディングを容易にするために、その構造に注意機構が欠如している。
本稿では,視覚オドメトリーにおけるセルフアテンションの有効性について検討する。
我々はSOTA法に対する定性的および定量的な結果について報告する。
さらに、特別に設計された実験とともに、塩分濃度に基づく研究を用いて、VOに対する自己意識の影響を調査する。
実験により, 自己注意により, 優れた特徴の抽出が可能であり, このような構造を欠くネットワークに比べて, 優れた計測性能が得られることがわかった。
関連論文リスト
- Uncertainty-Guided Appearance-Motion Association Network for Out-of-Distribution Action Detection [4.938957922033169]
セマンティックシフトでテストサンプルを検出し、拒否するOOD(Out-of-Distribution)検出ターゲット。
我々は,新しい不確実性誘導外観運動ネットワーク(UAAN)を提案する。
UAANは最先端の手法をかなりの差で打ち負かし、その効果を実証する。
論文 参考訳(メタデータ) (2024-09-16T02:53:49Z) - Learn to Memorize and to Forget: A Continual Learning Perspective of Dynamic SLAM [17.661231232206028]
暗黙的な神経表現を伴う同時局所化とマッピング(SLAM)が注目されている。
動的環境のための新しいSLAMフレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-18T09:35:48Z) - LEAP-VO: Long-term Effective Any Point Tracking for Visual Odometry [52.131996528655094]
本稿では,LEAP(Long-term Effective Any Point Tracking)モジュールについて述べる。
LEAPは、動的トラック推定のために、視覚的、トラック間、時間的キューと慎重に選択されたアンカーを革新的に組み合わせている。
これらの特徴に基づき,強靭な視力計測システムLEAP-VOを開発した。
論文 参考訳(メタデータ) (2024-01-03T18:57:27Z) - FuNNscope: Visual microscope for interactively exploring the loss
landscape of fully connected neural networks [77.34726150561087]
ニューラルネットワークの高次元景観特性を探索する方法を示す。
我々は、小さなニューラルネットワークの観測結果をより複雑なシステムに一般化する。
インタラクティブダッシュボードは、いくつかのアプリケーションネットワークを開放する。
論文 参考訳(メタデータ) (2022-04-09T16:41:53Z) - Information-Theoretic Odometry Learning [83.36195426897768]
生体計測推定を目的とした学習動機付け手法のための統合情報理論フレームワークを提案する。
提案フレームワークは情報理論言語の性能評価と理解のためのエレガントなツールを提供する。
論文 参考訳(メタデータ) (2022-03-11T02:37:35Z) - Correlation-Aware Deep Tracking [83.51092789908677]
本稿では,自己/横断的意図に着想を得た,新たなターゲット依存型特徴ネットワークを提案する。
我々のネットワークは機能ネットワークの複数の層にクロスイメージの特徴相関を深く埋め込んでいる。
我々のモデルは、豊富な未ペア画像に対して柔軟に事前訓練が可能であり、既存の手法よりも顕著に高速な収束をもたらす。
論文 参考訳(メタデータ) (2022-03-03T11:53:54Z) - DeepAVO: Efficient Pose Refining with Feature Distilling for Deep Visual
Odometry [8.114855695727003]
本稿では, 深層学習(DL)の観点から, モノクラービジュアルオドメトリー(VO)について検討する。
本稿では、コナールニューラルネットワーク(CNN)を利用して、光フロー入力の異なる四分項に着目し、回転と変換を学習する新しい4分岐ネットワークを提案する。
屋外走行と屋内歩行のシナリオを含む様々なデータセットの実験により、提案されたDeepAVOは最先端のモノラル法よりも大きなマージンで優れていることが示された。
論文 参考訳(メタデータ) (2021-05-20T17:05:31Z) - Learning Multiplicative Interactions with Bayesian Neural Networks for
Visual-Inertial Odometry [44.209301916028124]
本稿では,視覚慣性オドメトリー(VIO)のためのエンドツーエンドマルチモーダル学習手法を提案する。
センサ劣化シナリオに照らして、センサの相補性を利用するように設計されている。
論文 参考訳(メタデータ) (2020-07-15T11:39:29Z) - Single Image Deraining via Scale-space Invariant Attention Neural
Network [58.5284246878277]
我々は,カメラに対するレインステーキの外観の視覚的変化に対処するスケールの概念に取り組む。
本稿では,画素領域よりもコンパクトでロバストな畳み込み特徴領域のマルチスケール相関を表現することを提案する。
このようにして、機能マップの最も活発な存在を、有能な特徴として要約する。
論文 参考訳(メタデータ) (2020-06-09T04:59:26Z) - Ventral-Dorsal Neural Networks: Object Detection via Selective Attention [51.79577908317031]
我々はVDNet(Ventral-Dorsal Networks)と呼ばれる新しいフレームワークを提案する。
人間の視覚システムの構造にインスパイアされた我々は「Ventral Network」と「Dorsal Network」の統合を提案する。
実験の結果,提案手法は最先端の物体検出手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2020-05-15T23:57:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。