論文の概要: DELTAv2: Accelerating Dense 3D Tracking
- arxiv url: http://arxiv.org/abs/2508.01170v1
- Date: Sat, 02 Aug 2025 03:15:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-05 18:25:21.738427
- Title: DELTAv2: Accelerating Dense 3D Tracking
- Title(参考訳): DELTAv2: 高密度3D追跡の高速化
- Authors: Tuan Duc Ngo, Ashkan Mirzaei, Guocheng Qian, Hanwen Liang, Chuang Gan, Evangelos Kalogerakis, Peter Wonka, Chaoyang Wang,
- Abstract要約: 本稿では,ビデオ中の高密度3次元点追跡を高速化するための新しいアルゴリズムを提案する。
極小点の小さな部分集合で追跡を開始し、トラックされた軌道の集合を段階的に拡大する粗大な戦略を導入する。
新たに追加されたトラジェクトリは学習可能なモジュールを使用しており、トラッキングネットワークとともにエンドツーエンドでトレーニングされている。
- 参考スコア(独自算出の注目度): 79.63990337419514
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a novel algorithm for accelerating dense long-term 3D point tracking in videos. Through analysis of existing state-of-the-art methods, we identify two major computational bottlenecks. First, transformer-based iterative tracking becomes expensive when handling a large number of trajectories. To address this, we introduce a coarse-to-fine strategy that begins tracking with a small subset of points and progressively expands the set of tracked trajectories. The newly added trajectories are initialized using a learnable interpolation module, which is trained end-to-end alongside the tracking network. Second, we propose an optimization that significantly reduces the cost of correlation feature computation, another key bottleneck in prior methods. Together, these improvements lead to a 5-100x speedup over existing approaches while maintaining state-of-the-art tracking accuracy.
- Abstract(参考訳): 本稿では,ビデオ中の高密度3次元点追跡を高速化するための新しいアルゴリズムを提案する。
既存の最先端手法を解析することにより、2つの主要な計算ボトルネックを同定する。
まず,多数のトラジェクトリを扱う場合,トランスフォーマーに基づく反復追跡が高価になる。
これを解決するために,小さな点の集合で追跡を開始し,トラックされた軌道の集合を段階的に拡張する粗大な戦略を導入する。
新たに追加されたトラジェクトリは、学習可能な補間モジュールを使用して初期化される。
第2に,従来の手法におけるもう一つの重要なボトルネックである相関特徴計算のコストを大幅に削減する最適化を提案する。
これらの改善は、最先端のトラッキング精度を維持しながら、既存のアプローチよりも5-100倍のスピードアップをもたらす。
関連論文リスト
- DELTA: Dense Efficient Long-range 3D Tracking for any video [82.26753323263009]
DELTAは3次元空間内のすべてのピクセルを効率よく追跡し,ビデオ全体の正確な動き推定を可能にする手法である。
提案手法では,低分解能追跡のためのグローバルアテンション機構と,高分解能予測を実現するためのトランスフォーマーベースアップサンプラーを併用する。
提案手法は,3次元空間における細粒度・長期動作追跡を必要とするアプリケーションに対して,ロバストなソリューションを提供する。
論文 参考訳(メタデータ) (2024-10-31T17:59:01Z) - SSP-GNN: Learning to Track via Bilevel Optimization [3.1889516673296807]
マルチオブジェクトトラッキング(MOT)のためのグラフベースのトラッキング形式を提案する。
本手法は,一組のフレーム上で定義された追跡グラフに対して,逐次最短経路 (SSP) アルゴリズムを適用した。
この追跡グラフのエッジコストは、グラフニューラルネットワーク(GNN)の変種であるメッセージパスネットワークを介して計算される。
論文 参考訳(メタデータ) (2024-07-05T07:23:51Z) - Exploring Dynamic Transformer for Efficient Object Tracking [58.120191254379854]
効率的なトラッキングのための動的トランスフォーマーフレームワークであるDyTrackを提案する。
DyTrackは、様々な入力に対して適切な推論ルートを設定することを学習し、利用可能な計算予算をより活用する。
複数のベンチマークの実験では、DyTrackは単一のモデルで有望な速度精度のトレードオフを実現している。
論文 参考訳(メタデータ) (2024-03-26T12:31:58Z) - Dense Optical Tracking: Connecting the Dots [82.79642869586587]
DOTは、ビデオにおけるポイントトラッキングの問題を解決するための、新しくてシンプルで効率的な方法である。
OmniMotionのような高度な"ユニバーサルトラッカー"を上回り、CoTrackerのような最良のポイントトラッキングアルゴリズムと同等か、あるいはそれ以上の精度で、DOTが現在の光フロー技術よりもはるかに正確であることを示す。
論文 参考訳(メタデータ) (2023-12-01T18:59:59Z) - Real-time Multi-Object Tracking Based on Bi-directional Matching [0.0]
本研究では,多目的追跡のための双方向マッチングアルゴリズムを提案する。
ストランド領域はマッチングアルゴリズムで使われ、追跡できないオブジェクトを一時的に保存する。
MOT17チャレンジでは、提案アルゴリズムは63.4%のMOTA、55.3%のIDF1、20.1のFPS追跡速度を達成した。
論文 参考訳(メタデータ) (2023-03-15T08:38:08Z) - Correlating sparse sensing for large-scale traffic speed estimation: A
Laplacian-enhanced low-rank tensor kriging approach [76.45949280328838]
本稿では,Laplacian enhanced Low-rank tensor (LETC) フレームワークを提案する。
次に,提案したモデルをネットワークワイド・クリグにスケールアップするために,複数の有効な数値手法を用いて効率的な解アルゴリズムを設計する。
論文 参考訳(メタデータ) (2022-10-21T07:25:57Z) - FlowMOT: 3D Multi-Object Tracking by Scene Flow Association [9.480272707157747]
従来のマッチングアルゴリズムと点運動情報を統合するLiDARベースの3D MOTフレームワークFlowMOTを提案する。
提案手法は,最新のエンドツーエンド手法より優れ,最先端のフィルタ方式と競合する性能を実現する。
論文 参考訳(メタデータ) (2020-12-14T14:03:48Z) - Learning to Optimize Non-Rigid Tracking [54.94145312763044]
我々は、堅牢性を改善し、解法収束を高速化するために学習可能な最適化を採用する。
まず、CNNを通じてエンドツーエンドに学習された深い特徴にアライメントデータ項を統合することにより、追跡対象をアップグレードする。
次に,プレコンディショニング手法と学習手法のギャップを,プレコンディショナを生成するためにトレーニングされたConditionNetを導入することで埋める。
論文 参考訳(メタデータ) (2020-03-27T04:40:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。