論文の概要: Planar Object Tracking via Weighted Optical Flow
- arxiv url: http://arxiv.org/abs/2301.10057v1
- Date: Tue, 24 Jan 2023 15:02:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-25 13:27:06.511753
- Title: Planar Object Tracking via Weighted Optical Flow
- Title(参考訳): 重み付き光流による平面物体追跡
- Authors: Jonas Serych, Jiri Matas
- Abstract要約: 本研究では,平面物体追跡のための新しい手法を提案する。
この方法は、密度の高い光フローを活用し、各光フロー対応に重みを割り当てる新しいモジュールを使用し、重み付き最小二乗によるホモグラフィーを、完全に微分可能な方法で推定する。
提案した重み付き光フロートラッカー (WOFT) は, POT-210 と POIC の2つのベンチマーク上での最先端性能を達成し,幅広いシナリオを継続的に追跡する。
- 参考スコア(独自算出の注目度): 38.93271613326877
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose WOFT -- a novel method for planar object tracking that estimates a
full 8 degrees-of-freedom pose, i.e. the homography w.r.t. a reference view.
The method uses a novel module that leverages dense optical flow and assigns a
weight to each optical flow correspondence, estimating a homography by weighted
least squares in a fully differentiable manner. The trained module assigns zero
weights to incorrect correspondences (outliers) in most cases, making the
method robust and eliminating the need of the typically used non-differentiable
robust estimators like RANSAC. The proposed weighted optical flow tracker
(WOFT) achieves state-of-the-art performance on two benchmarks, POT-210 and
POIC, tracking consistently well across a wide range of scenarios.
- Abstract(参考訳): 我々は、平面物体追跡のための新しい手法であるwoftを提案する。これは8度自由度ポーズを推定するものであり、すなわち、ホモグラフィw.r.t.参照ビューである。
この方法は、密度の高い光フローを活用し、各光フロー対応に重みを割り当てる新しいモジュールを使用し、完全に微分可能な方法で重み付き最小二乗によるホモグラフィを推定する。
訓練されたモジュールは、ほとんどの場合、不正な対応(外れ値)にゼロウェイトを割り当て、メソッドを堅牢にし、一般的に使用されるRANSACのような非微分不可能な頑健な推定器の必要性をなくす。
提案した重み付き光フロートラッカー (WOFT) は, POT-210 と POIC の2つのベンチマークにおける最先端性能を達成し,幅広いシナリオで継続的に追跡する。
関連論文リスト
- ParticleSfM: Exploiting Dense Point Trajectories for Localizing Moving
Cameras in the Wild [57.37891682117178]
本稿では,一対の光流からの高密度対応に基づく動画の高密度間接構造抽出手法を提案する。
不規則点軌道データを処理するために,新しいニューラルネットワークアーキテクチャを提案する。
MPIシンテルデータセットを用いた実験により,我々のシステムはより正確なカメラ軌道を生成することがわかった。
論文 参考訳(メタデータ) (2022-07-19T09:19:45Z) - Particle Videos Revisited: Tracking Through Occlusions Using Point
Trajectories [29.258861811749103]
我々はSandとTellerの"パーティクルビデオ"アプローチを再検討し、長距離モーション推定問題としてピクセル追跡について検討する。
私たちはこの古典的なアプローチを、現在の最先端のフローとオブジェクトトラッキングを駆動するコンポーネントを使って再構築します。
既存の光学フローデータセットから抽出した長距離アモーダル点軌道を用いてモデルを訓練する。
論文 参考訳(メタデータ) (2022-04-08T16:05:48Z) - Sensor-Guided Optical Flow [53.295332513139925]
本稿では、未知の領域や未知の領域において、より優れた精度を実現するために、外部キューを用いた光フローネットワークを誘導するフレームワークを提案する。
能動センサからの深度測定と幾何および手作り光学フローアルゴリズムを組み合わせることで,これらがどのように得られるかを示す。
論文 参考訳(メタデータ) (2021-09-30T17:59:57Z) - Dense Optical Flow from Event Cameras [55.79329250951028]
本稿では,イベントカメラからの高密度光フロー推定に特徴相関と逐次処理を導入することを提案する。
提案手法は、高密度光流を計算し、MVSEC上での終点誤差を23%削減する。
論文 参考訳(メタデータ) (2021-08-24T07:39:08Z) - PCA Event-Based Otical Flow for Visual Odometry [0.0]
本稿では,イベントベース光流量推定問題に対する主成分分析手法を提案する。
提案手法の最良の変種は,ビジュアルオドメトリーのリアルタイムコンテキストを対象とし,最先端実装と比較して約2倍高速であることを示す。
論文 参考訳(メタデータ) (2021-05-08T18:30:44Z) - VOLDOR: Visual Odometry from Log-logistic Dense Optical flow Residuals [18.739522634776062]
我々は,カメラモーション,画素深度,動きトラックの信頼度といった共同推論のための一般化EM式を開発した。
TUM RGB-DとKITTIのドオドメトリーベンチマークでトップランクを達成した。
当社のオープンソース実装は本質的にGPUに優しく、線形計算とストレージの成長のみです。
論文 参考訳(メタデータ) (2021-04-14T11:39:19Z) - Unsupervised Motion Representation Enhanced Network for Action
Recognition [4.42249337449125]
連続するフレーム間の動きの表現は、ビデオの理解を大いに促進することが証明されている。
効果的な光フロー解決器であるTV-L1法は、抽出した光フローをキャッシュするために時間と費用がかかる。
UF-TSN(UF-TSN)は、軽量な非監視光フロー推定器を組み込んだ、エンドツーエンドのアクション認識手法です。
論文 参考訳(メタデータ) (2021-03-05T04:14:32Z) - Optical Flow Estimation from a Single Motion-blurred Image [66.2061278123057]
画像内の動きのぼかしは、基本的なコンピュータビジョンの問題に実用的な関心を持つ可能性があります。
本研究では,単一動画像からの光流れをエンドツーエンドで推定する新しい枠組みを提案する。
論文 参考訳(メタデータ) (2021-03-04T12:45:18Z) - Learning Monocular Depth in Dynamic Scenes via Instance-Aware Projection
Consistency [114.02182755620784]
本稿では,複数の動的物体の6-DoF動作,エゴモーション,深度を,監督なしで一眼レフカメラで明示的にモデル化する,エンドツーエンドのジョイントトレーニングフレームワークを提案する。
筆者らのフレームワークは,最先端の深度・動き推定法より優れていた。
論文 参考訳(メタデータ) (2021-02-04T14:26:42Z) - Robust Ego and Object 6-DoF Motion Estimation and Tracking [5.162070820801102]
本稿では,動的多体視覚計測における高精度な推定と一貫した追跡性を実現するためのロバストな解を提案する。
セマンティック・インスタンスレベルのセグメンテーションと正確な光フロー推定の最近の進歩を活用して、コンパクトで効果的なフレームワークを提案する。
追従点の品質と運動推定精度を向上させる新しい定式化SE(3)運動と光流が導入された。
論文 参考訳(メタデータ) (2020-07-28T05:12:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。