論文の概要: Dense Matchers for Dense Tracking
- arxiv url: http://arxiv.org/abs/2402.11287v1
- Date: Sat, 17 Feb 2024 14:16:14 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-20 22:12:47.764996
- Title: Dense Matchers for Dense Tracking
- Title(参考訳): デンストラッキング用デンスマッチ
- Authors: Tom\'a\v{s} Jel\'inek, Jon\'a\v{s} \v{S}er\'ych, Ji\v{r}\'i Matas
- Abstract要約: 本稿では,MFT が提案する対数空間間隔における多重光流の結合の概念を拡張した。
我々は,MFTと異なる光フローネットワークとの整合性を実証し,個々の性能を上回る結果を得た。
このアプローチは、位置予測精度の観点から、より洗練された非因果的手法と競合することが証明されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Optical flow is a useful input for various applications, including 3D
reconstruction, pose estimation, tracking, and structure-from-motion. Despite
its utility, the field of dense long-term tracking, especially over wide
baselines, has not been extensively explored. This paper extends the concept of
combining multiple optical flows over logarithmically spaced intervals as
proposed by MFT. We demonstrate the compatibility of MFT with different optical
flow networks, yielding results that surpass their individual performance.
Moreover, we present a simple yet effective combination of these networks
within the MFT framework. This approach proves to be competitive with more
sophisticated, non-causal methods in terms of position prediction accuracy,
highlighting the potential of MFT in enhancing long-term tracking applications.
- Abstract(参考訳): 光フローは3次元再構成、ポーズ推定、追跡、動きからの構造化など、様々な用途に有用な入力である。
その有用性にもかかわらず、特に広いベースライン上での密集した長期追跡の分野は、広く研究されていない。
本稿では,MFT が提案する対数空間間隔における多重光流の結合の概念を拡張した。
我々は,MFTと異なる光フローネットワークとの整合性を実証し,個々の性能を上回る結果を得た。
さらに,これらのネットワークをMDTフレームワーク内でシンプルかつ効果的に組み合わせることを提案する。
このアプローチは、位置予測精度の観点からより洗練された非因果的手法と競合し、長期追跡アプリケーションの強化におけるMFTの可能性を強調している。
関連論文リスト
- FlowIE: Efficient Image Enhancement via Rectified Flow [71.6345505427213]
FlowIEはフローベースのフレームワークであり、基本的な分布から高品質な画像への直線パスを推定する。
私たちのコントリビューションは、合成および実世界のデータセットに関する包括的な実験を通じて、厳密に検証されています。
論文 参考訳(メタデータ) (2024-06-01T17:29:29Z) - Interaction-Force Transport Gradient Flows [45.05400562268213]
本稿では,非負測度および確率測度に対する新しい勾配流散逸幾何学を提案する。
We propose the interaction-force transport (IFT) gradient flow, we proposed the interaction-force transport (IFT) gradient flow。
論文 参考訳(メタデータ) (2024-05-27T11:46:14Z) - Motion-Aware Video Frame Interpolation [49.49668436390514]
我々は、連続するフレームから中間光の流れを直接推定する動き対応ビデオフレーム補間(MA-VFI)ネットワークを導入する。
受容場が異なる入力フレームからグローバルな意味関係と空間的詳細を抽出するだけでなく、必要な計算コストと複雑さを効果的に削減する。
論文 参考訳(メタデータ) (2024-02-05T11:00:14Z) - MFPNet: Multi-scale Feature Propagation Network For Lightweight Semantic
Segmentation [5.58363644107113]
マルチスケール特徴伝達ネットワーク(Net)と呼ばれる,新しい軽量セグメンテーションアーキテクチャを提案する。
フレキシブル・ボトルネック・残差モジュール(BRM)からなる対称残差ブロックを有するロバスト・デコーダ構造を設計する。
遅延長範囲のコンテキスト関係をモデル化する能力の利点を生かして、グラフ畳み込みネットワーク(GCN)を活用し、BRMブロック間のマルチスケールフィーチャの伝搬を容易にする。
論文 参考訳(メタデータ) (2023-09-10T02:02:29Z) - MFT: Long-Term Tracking of Every Pixel [0.36832029288386137]
Multi-Flow dense Tracker - 濃密でピクセルレベルの長期追跡のための新しい手法。
連続するフレーム間で推定される光フローを利用する。
追跡は最先端の点追跡法よりも桁違いに高速である。
論文 参考訳(メタデータ) (2023-05-22T13:02:46Z) - Modeling Continuous Motion for 3D Point Cloud Object Tracking [54.48716096286417]
本稿では,各トラックレットを連続ストリームとみなす新しいアプローチを提案する。
各タイムスタンプでは、現在のフレームだけがネットワークに送られ、メモリバンクに格納された複数フレームの履歴機能と相互作用する。
頑健な追跡のためのマルチフレーム機能の利用性を高めるために,コントラッシブシーケンス強化戦略を提案する。
論文 参考訳(メタデータ) (2023-03-14T02:58:27Z) - Spatio-Temporal Multi-Flow Network for Video Frame Interpolation [3.6053802212032995]
ビデオフレーム(VFI)は、コンピュータビジョン、ポストプロダクション、ビデオエンコーディングなど、非常に活発な研究トピックである。
本稿では,時空間マルチフローアーキテクチャに基づく新しい深層学習型VFI手法ST-MFNetを提案する。
論文 参考訳(メタデータ) (2021-11-30T15:18:46Z) - Sensor-Guided Optical Flow [53.295332513139925]
本稿では、未知の領域や未知の領域において、より優れた精度を実現するために、外部キューを用いた光フローネットワークを誘導するフレームワークを提案する。
能動センサからの深度測定と幾何および手作り光学フローアルゴリズムを組み合わせることで,これらがどのように得られるかを示す。
論文 参考訳(メタデータ) (2021-09-30T17:59:57Z) - Self-Supervised Multi-Frame Monocular Scene Flow [61.588808225321735]
自己監督学習に基づくマルチフレーム一眼的シーンフローネットワークを導入。
自己監督学習に基づく単眼的シーンフロー法における最新の精度を観察する。
論文 参考訳(メタデータ) (2021-05-05T17:49:55Z) - Unsupervised Motion Representation Enhanced Network for Action
Recognition [4.42249337449125]
連続するフレーム間の動きの表現は、ビデオの理解を大いに促進することが証明されている。
効果的な光フロー解決器であるTV-L1法は、抽出した光フローをキャッシュするために時間と費用がかかる。
UF-TSN(UF-TSN)は、軽量な非監視光フロー推定器を組み込んだ、エンドツーエンドのアクション認識手法です。
論文 参考訳(メタデータ) (2021-03-05T04:14:32Z) - Multi-view Depth Estimation using Epipolar Spatio-Temporal Networks [87.50632573601283]
一つのビデオから多視点深度を推定する新しい手法を提案する。
提案手法は,新しいEpipolar Spatio-Temporal Transformer(EST)を用いて時間的コヒーレントな深度推定を行う。
最近のMixture-of-Expertsモデルにインスパイアされた計算コストを削減するため、我々はコンパクトなハイブリッドネットワークを設計する。
論文 参考訳(メタデータ) (2020-11-26T04:04:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。