論文の概要: Stereo Visual Odometry with Deep Learning-Based Point and Line Feature
Matching using an Attention Graph Neural Network
- arxiv url: http://arxiv.org/abs/2308.01125v1
- Date: Wed, 2 Aug 2023 13:09:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-03 13:01:32.481079
- Title: Stereo Visual Odometry with Deep Learning-Based Point and Line Feature
Matching using an Attention Graph Neural Network
- Title(参考訳): 注意グラフニューラルネットワークを用いた深層学習に基づく点線特徴マッチングによるステレオ視覚オドメトリ
- Authors: Shenbagaraj Kannapiran, Nalin Bendapudi, Ming-Yuan Yu, Devarth Parikh,
Spring Berman, Ankit Vora, and Gaurav Pandey
- Abstract要約: 点と線の特徴に基づくステレオビジュアルオドメトリー(StereoVO)技術を提案する。
提案手法は,最先端のラインマッチングアルゴリズムよりも多くのライン特徴マッチングを実現する。
- 参考スコア(独自算出の注目度): 4.900326352413157
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Robust feature matching forms the backbone for most Visual Simultaneous
Localization and Mapping (vSLAM), visual odometry, 3D reconstruction, and
Structure from Motion (SfM) algorithms. However, recovering feature matches
from texture-poor scenes is a major challenge and still remains an open area of
research. In this paper, we present a Stereo Visual Odometry (StereoVO)
technique based on point and line features which uses a novel feature-matching
mechanism based on an Attention Graph Neural Network that is designed to
perform well even under adverse weather conditions such as fog, haze, rain, and
snow, and dynamic lighting conditions such as nighttime illumination and glare
scenarios. We perform experiments on multiple real and synthetic datasets to
validate the ability of our method to perform StereoVO under low visibility
weather and lighting conditions through robust point and line matches. The
results demonstrate that our method achieves more line feature matches than
state-of-the-art line matching algorithms, which when complemented with point
feature matches perform consistently well in adverse weather and dynamic
lighting conditions.
- Abstract(参考訳): ロバストな特徴マッチングは、ほとんどの視覚的同時局在マッピング(vSLAM)、視覚計測、3D再構成、Structure from Motion(SfM)アルゴリズムのバックボーンを形成する。
しかし、テクスチャパウダーシーンから特徴マッチングを復元することは大きな課題であり、依然として研究のオープン領域である。
本稿では,霧・霧・雨・雪などの悪天候条件や夜間照明・照度・照度といった動的照明条件下でも良好に動作するように設計された注意グラフニューラルネットワークに基づく特徴マッチング機構を用いた,ポイント・アンド・ライン特徴に基づくステレオ・ビジュアル・オドメトリ(stereovo)手法を提案する。
我々は,複数の実データと合成データを用いて,低視認性気象条件下でのStereoVOの実現能力と,ロバストポイントとラインマッチによる照明条件の検証を行った。
提案手法は, 異常気象条件や動的照明条件下で, 点特徴マッチングを補完するアルゴリズムよりも, ライン特徴整合性が高いことを示す。
関連論文リスト
- DeepArUco++: Improved detection of square fiducial markers in challenging lighting conditions [3.783609886054562]
フィデューシャルマーカー(Fiducial marker)は、オブジェクトのポーズ推定と検出に使用されるコンピュータビジョンツールである。
DeepArUco++は、困難な照明条件下でマーカー検出とデコードを実行するフレームワークである。
システム評価に使用する照明条件に挑戦するために,第2のArUcoマーカーのリアルタイムデータセットを提示する。
論文 参考訳(メタデータ) (2024-11-08T13:18:31Z) - A Radiometric Correction based Optical Modeling Approach to Removing Reflection Noise in TLS Point Clouds of Urban Scenes [3.7967365472200894]
TLSが取得した点雲は反射面からの仮想点を含むことが多く、乱れを引き起こす。
本研究では,TLS点雲に対する反射ノイズ除去アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-07-03T06:17:41Z) - NeRF-VO: Real-Time Sparse Visual Odometry with Neural Radiance Fields [13.178099653374945]
NeRF-VOは、低遅延カメラトラッキングとニューラルラディアンスシーン表現のための学習ベースのスパースビジュアルオドメトリーを統合している。
我々は、様々な合成および実世界のデータセットに対して、ポーズ推定精度、新しいビュー忠実度、および密度の高い再構成品質においてSOTA法を超越した。
論文 参考訳(メタデータ) (2023-12-20T22:42:17Z) - DNS SLAM: Dense Neural Semantic-Informed SLAM [92.39687553022605]
DNS SLAMは、ハイブリッド表現を備えた新しいRGB-DセマンティックSLAMアプローチである。
本手法は画像に基づく特徴抽出と多視点幾何制約を統合し,外観の細部を改良する。
実験により, 合成データと実世界のデータ追跡の両面において, 最先端の性能が得られた。
論文 参考訳(メタデータ) (2023-11-30T21:34:44Z) - Spatiotemporally Consistent HDR Indoor Lighting Estimation [66.26786775252592]
本研究では,屋内照明推定問題を解決するための物理動機付きディープラーニングフレームワークを提案する。
深度マップを用いた1枚のLDR画像から,任意の画像位置における空間的に一貫した照明を予測できる。
我々のフレームワークは、最先端の単一画像やビデオベースの手法と比較して、高画質で光リアリスティック照明予測を実現する。
論文 参考訳(メタデータ) (2023-05-07T20:36:29Z) - Local Feature Extraction from Salient Regions by Feature Map
Transformation [0.7734726150561086]
光や視点によらず,局所的な特徴を強く抽出し,記述する枠組みを提案する。
このフレームワークは照明の変動を抑制し、構造情報を光からのノイズを無視するように促す。
提案モデルでは,正常な領域から特徴点を抽出し,不整合を減少させる。
論文 参考訳(メタデータ) (2023-01-25T05:31:20Z) - Real-Time Simultaneous Localization and Mapping with LiDAR intensity [9.374695605941627]
実時間LiDAR強調画像を用いた同時位置推定とマッピング手法を提案する。
提案手法は高精度でリアルタイムに動作可能であり,照度変化,低テクスチャ,非構造化環境でも有効である。
論文 参考訳(メタデータ) (2023-01-23T03:59:48Z) - Progressively-connected Light Field Network for Efficient View Synthesis [69.29043048775802]
本稿では、複雑な前方シーンのビュー合成のためのプログレッシブ・コネクテッド・ライトフィールド・ネットワーク(ProLiF)を提案する。
ProLiFは4Dライトフィールドをエンコードし、画像やパッチレベルの損失に対するトレーニングステップで大量の光線をレンダリングすることができる。
論文 参考訳(メタデータ) (2022-07-10T13:47:20Z) - Multitask AET with Orthogonal Tangent Regularity for Dark Object
Detection [84.52197307286681]
暗黒環境下でのオブジェクト検出を強化するために,新しいマルチタスク自動符号化変換(MAET)モデルを提案する。
自己超越的な方法で、MAETは、現実的な照明劣化変換を符号化して復号することで、本質的な視覚構造を学習する。
我々は,合成および実世界のデータセットを用いて最先端のパフォーマンスを達成した。
論文 参考訳(メタデータ) (2022-05-06T16:27:14Z) - PVSeRF: Joint Pixel-, Voxel- and Surface-Aligned Radiance Field for
Single-Image Novel View Synthesis [52.546998369121354]
シングルビューRGB画像からニューラル放射場を再構成する学習フレームワークPVSeRFを提案する。
本稿では,明示的な幾何学的推論を取り入れ,放射場予測のための画素アラインな特徴と組み合わせることを提案する。
このような幾何学的特徴の導入は、外観と幾何学の絡み合いを改善するのに有効であることを示す。
論文 参考訳(メタデータ) (2022-02-10T07:39:47Z) - Object-based Illumination Estimation with Rendering-aware Neural
Networks [56.01734918693844]
個々の物体とその局所画像領域のRGBD外観から高速環境光推定手法を提案する。
推定照明により、仮想オブジェクトは実際のシーンと一貫性のあるシェーディングでARシナリオでレンダリングできる。
論文 参考訳(メタデータ) (2020-08-06T08:23:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。