論文の概要: Sparse Optical Flow-Based Line Feature Tracking
- arxiv url: http://arxiv.org/abs/2204.03331v1
- Date: Thu, 7 Apr 2022 10:00:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-08 14:54:05.101148
- Title: Sparse Optical Flow-Based Line Feature Tracking
- Title(参考訳): スパースフローに基づくライン特徴追跡
- Authors: Qiang Fu, Hongshan Yu, Islam Ali, Hong Zhang
- Abstract要約: 本稿では, カメラポーズ推定問題に対する新しいスパース光フロー (SOF) を用いたライン特徴追跡手法を提案する。
この手法は点ベースSOFアルゴリズムにインスパイアされ、隣接する2つの画像が輝度不変量を満たすという観測に基づいて開発された。
いくつかの公開ベンチマークデータセットで実験したところ、我々の手法は速度よりも明らかな優位性を持つ高い競争精度が得られることがわかった。
- 参考スコア(独自算出の注目度): 7.166068174681434
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper we propose a novel sparse optical flow (SOF)-based line feature
tracking method for the camera pose estimation problem. This method is inspired
by the point-based SOF algorithm and developed based on an observation that two
adjacent images in time-varying image sequences satisfy brightness invariant.
Based on this observation, we re-define the goal of line feature tracking:
track two endpoints of a line feature instead of the entire line based on gray
value matching instead of descriptor matching. To achieve this goal, an
efficient two endpoint tracking (TET) method is presented: first, describe a
given line feature with its two endpoints; next, track the two endpoints based
on SOF to obtain two new tracked endpoints by minimizing a pixel-level
grayscale residual function; finally, connect the two tracked endpoints to
generate a new line feature. The correspondence is established between the
given and the new line feature. Compared with current descriptor-based methods,
our TET method needs not to compute descriptors and detect line features
repeatedly. Naturally, it has an obvious advantage over computation.
Experiments in several public benchmark datasets show our method yields highly
competitive accuracy with an obvious advantage over speed.
- Abstract(参考訳): 本稿では,カメラのポーズ推定問題に対する新しいスパース光フロー(SOF)を用いたライン特徴追跡手法を提案する。
この方法は点ベースSOFアルゴリズムにインスパイアされ、時間変化画像列内の2つの隣接画像が輝度不変性を満たすという観測に基づいて開発された。
この観察に基づいて、ライン機能追跡の目標を再定義する。 記述子マッチングではなくグレー値マッチングに基づいて、ライン機能全体の2つのエンドポイントを追跡する。
この目的を達成するために、まず、与えられた2つのエンドポイントの特徴を2つのエンドポイントで記述し、次に2つのエンドポイントをSOFに基づいて追跡し、ピクセルレベルのグレースケール残差関数を最小化して2つの新しいトラックされたエンドポイントを得る。
与えられたライン特徴と新規ライン特徴との対応性を確立する。
現在のディスクリプタベースの手法と比較して、我々のTETメソッドはディスクリプタを計算し、繰り返し線特徴を検出する必要はない。
当然、計算よりも明らかな優位性がある。
いくつかの公開ベンチマークデータセットで実験したところ、我々の手法は速度よりも明らかな優位性を持つ高い競争精度が得られることがわかった。
関連論文リスト
- Dense Optical Tracking: Connecting the Dots [82.79642869586587]
DOTは、ビデオにおけるポイントトラッキングの問題を解決するための、新しくてシンプルで効率的な方法である。
OmniMotionのような高度な"ユニバーサルトラッカー"を上回り、CoTrackerのような最良のポイントトラッキングアルゴリズムと同等か、あるいはそれ以上の精度で、DOTが現在の光フロー技術よりもはるかに正確であることを示す。
論文 参考訳(メタデータ) (2023-12-01T18:59:59Z) - IDLS: Inverse Depth Line based Visual-Inertial SLAM [9.38589798999922]
Inverse Depth Line SLAM (IDLS) を提案する。
IDLSは、複数の知覚的整合性データセットで広く評価されている。
論文 参考訳(メタデータ) (2023-04-23T20:53:05Z) - LOF: Structure-Aware Line Tracking based on Optical Flow [8.856222186351445]
光フロー(LOF)に基づく構造認識ライントラッキングアルゴリズムを提案する。
提案するLOFは, ライントラッキング精度, 堅牢性, 効率において, 最先端性能より優れる。
論文 参考訳(メタデータ) (2021-09-17T11:09:11Z) - DFM: A Performance Baseline for Deep Feature Matching [10.014010310188821]
提案手法では,事前学習したVGGアーキテクチャを特徴抽出器として使用し,マッチングを改善するために追加の訓練を必要としない。
提案アルゴリズムは,Hpatchesデータセット上で,平均マッチング精度(MMA)で0.57と0.80のスコアをそれぞれ1ピクセル,2ピクセルの閾値で達成する。
論文 参考訳(メタデータ) (2021-06-14T22:55:06Z) - ABCNet v2: Adaptive Bezier-Curve Network for Real-time End-to-end Text
Spotting [108.93803186429017]
エンドツーエンドのテキストスポッティングは、統一されたフレームワークで検出と認識を統合することを目指している。
本稿では、Adaptive Bezier Curve Network v2 (ABCNet v2) を提示することで、エンドツーエンドテキストスポッティングに取り組む。
1) 任意の形状のテキストをパラメータ化されたベジアー曲線で適応的に適合させ, セグメンテーション法と比較すると, 構造的な出力だけでなく, 制御可能な表現も提供できる。
様々なバイリンガル(英語と中国語)ベンチマークデータセットで実施された総合的な実験は、ABCNet v2が現状を達成することを実証している。
論文 参考訳(メタデータ) (2021-05-08T07:46:55Z) - SOLD2: Self-supervised Occlusion-aware Line Description and Detection [95.8719432775724]
単一深層ネットワークにおける回線セグメントの最初の共同検出と記述について紹介します。
我々の手法は注釈付き行ラベルを必要としないため、任意のデータセットに一般化することができる。
複数のマルチビューデータセットにおいて,従来の行検出と記述方法に対するアプローチを評価した。
論文 参考訳(メタデータ) (2021-04-07T19:27:17Z) - Avoiding Degeneracy for Monocular Visual SLAM with Point and Line
Features [1.5938324336156293]
本稿では,点と線に基づく視覚SLAMアルゴリズムの退化回避法を提案する。
縮退問題を回避するために,新しい構造制約を提案する。
より正確な位置決めとマッピング結果が得られることが証明されています。
論文 参考訳(メタデータ) (2021-03-02T06:41:44Z) - Sequential Graph Convolutional Network for Active Learning [53.99104862192055]
逐次グラフ畳み込みネットワーク(GCN)を用いた新しいプールベースアクティブラーニングフレームワークを提案する。
少数のランダムなサンプル画像がシードラベル付き例であるので、グラフのパラメータを学習してラベル付きノードと非ラベル付きノードを区別する。
我々はGCNの特性を利用してラベル付けされたものと十分に異なる未ラベルの例を選択する。
論文 参考訳(メタデータ) (2020-06-18T00:55:10Z) - RANSAC-Flow: generic two-stage image alignment [53.11926395028508]
単純な教師なしのアプローチは、様々なタスクにおいて驚くほどうまく機能することを示す。
その単純さにもかかわらず、我々の手法は様々なタスクやデータセットで競合する結果を示す。
論文 参考訳(メタデータ) (2020-04-03T12:37:58Z) - Holistically-Attracted Wireframe Parsing [123.58263152571952]
本稿では,入力画像中のベクトル化ワイヤフレームを1つのフォワードパスで検出する高速で類似的な解析手法を提案する。
提案手法は, (i) ラインセグメントとジャンクション提案生成, (ii) ラインセグメントとジャンクションマッチング, (iii) ラインセグメントとジャンクション検証の3つのコンポーネントから構成される。
論文 参考訳(メタデータ) (2020-03-03T17:43:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。