論文の概要: DPTrack:Directional Kernel-Guided Prompt Learning for Robust Nighttime Aerial Tracking
- arxiv url: http://arxiv.org/abs/2510.15449v1
- Date: Fri, 17 Oct 2025 09:07:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-20 20:17:34.550436
- Title: DPTrack:Directional Kernel-Guided Prompt Learning for Robust Nighttime Aerial Tracking
- Title(参考訳): DPTrack:ロバスト夜間航空追跡のための指向性カーネル誘導型プロンプト学習
- Authors: Zhiqiang Zhu, Xinbo Gao, Wen Lu, Jie Li, Zhaoyang Wang, Mingqian Ge,
- Abstract要約: DPTrackは夜間シナリオのためのプロンプトベースの空中追跡装置である。
与えられたオブジェクトの属性機能を指向カーネルにエンコードする。
カーネル誘導プロンプトモジュールは、検索領域の特徴を越えてカーネルを伝搬する。
- 参考スコア(独自算出の注目度): 51.02908607542803
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing nighttime aerial trackers based on prompt learning rely solely on spatial localization supervision, which fails to provide fine-grained cues that point to target features and inevitably produces vague prompts. This limitation impairs the tracker's ability to accurately focus on the object features and results in trackers still performing poorly. To address this issue, we propose DPTrack, a prompt-based aerial tracker designed for nighttime scenarios by encoding the given object's attribute features into the directional kernel enriched with fine-grained cues to generate precise prompts. Specifically, drawing inspiration from visual bionics, DPTrack first hierarchically captures the object's topological structure, leveraging topological attributes to enrich the feature representation. Subsequently, an encoder condenses these topology-aware features into the directional kernel, which serves as the core guidance signal that explicitly encapsulates the object's fine-grained attribute cues. Finally, a kernel-guided prompt module built on channel-category correspondence attributes propagates the kernel across the features of the search region to pinpoint the positions of target features and convert them into precise prompts, integrating spatial gating for robust nighttime tracking. Extensive evaluations on established benchmarks demonstrate DPTrack's superior performance. Our code will be available at https://github.com/zzq-vipsl/DPTrack.
- Abstract(参考訳): 即時学習に基づく既存の夜間航空トラッカーは、空間的局所化の監督にのみ依存しており、特徴を目標とする細粒度な手がかりが得られず、必然的にあいまいなプロンプトを発生させる。
この制限により、トラッカーがオブジェクトの特徴に正確に焦点を合わせる能力が損なわれ、トラッカーは依然として性能が良くない。
この問題に対処するために,DPTrackを提案する。DPTrackは,オブジェクトの属性特徴を,精密なプロンプトを生成するための微細なキューを具備した指向性カーネルに符号化することで,夜間シナリオ用に設計されたプロンプトベースの航空トラッカーである。
具体的には、視覚的バイオニクスからインスピレーションを得て、DPTrackはまず、その物体の位相構造を階層的に捉え、トポロジカルな属性を利用して特徴表現を豊かにする。
その後、エンコーダはこれらのトポロジ認識機能を指向性カーネルに凝縮し、オブジェクトの微粒な属性キューを明示的にカプセル化するコアガイダンス信号として機能する。
最後に、チャネルカテゴリ対応属性に基づいて構築されたカーネル誘導プロンプトモジュールは、検索領域の特徴をまたいでカーネルを伝播させ、ターゲット特徴の位置をピンポイントし、それらを正確なプロンプトに変換し、堅牢な夜間追跡のための空間ゲーティングを統合する。
確立されたベンチマークの大規模な評価は、DPTrackの優れたパフォーマンスを示している。
私たちのコードはhttps://github.com/zzq-vipsl/DPTrack.comで公開されます。
関連論文リスト
- Exploring Temporally-Aware Features for Point Tracking [58.63091479730935]
Chronoは、時間的認識を組み込んだポイントトラッキング用に特別に設計された機能バックボーンである。
Chronoは、TAP-Vid-DAVISとTAP-Vid-Kineticsデータセットの洗練されたフリー設定で最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2025-01-21T15:39:40Z) - STCMOT: Spatio-Temporal Cohesion Learning for UAV-Based Multiple Object Tracking [13.269416985959404]
無人航空機(UAV)ビデオにおける複数物体追跡(MOT)は、コンピュータビジョンにおける多様な用途において重要である。
時空間結合型多目的追跡フレームワーク(STCMOT)を提案する。
歴史的埋め込み機能を用いて,ReIDの表現と検出機能を逐次的にモデル化する。
我々のフレームワークはMOTAとIDF1メトリクスで新しい最先端のパフォーマンスを設定します。
論文 参考訳(メタデータ) (2024-09-17T14:34:18Z) - Once Detected, Never Lost: Surpassing Human Performance in Offline LiDAR
based 3D Object Detection [50.959453059206446]
本稿では,高性能なオフラインLiDARによる3Dオブジェクト検出を実現することを目的とする。
まず、経験豊富な人間のアノテータが、トラック中心の視点でオブジェクトに注釈を付けるのを観察する。
従来のオブジェクト中心の視点ではなく,トラック中心の視点で高性能なオフライン検出器を提案する。
論文 参考訳(メタデータ) (2023-04-24T17:59:05Z) - Learning Spatio-Temporal Transformer for Visual Tracking [108.11680070733598]
本稿では,エンコーダ・デコーダ変換器をキーコンポーネントとする新しいトラッキングアーキテクチャを提案する。
メソッド全体がエンドツーエンドであり、コサインウィンドウやバウンディングボックススムーシングのような後処理ステップは不要である。
提案されたトラッカーは、Siam R-CNNよりも6倍速いリアルタイム速度を実行しながら、5つのチャレンジングな短期および長期ベンチマークで最先端のパフォーマンスを実現します。
論文 参考訳(メタデータ) (2021-03-31T15:19:19Z) - Coarse-to-Fine Object Tracking Using Deep Features and Correlation
Filters [2.3526458707956643]
本稿では,新しいディープラーニング追跡アルゴリズムを提案する。
対象の翻訳を大まかに推定するために,深層特徴の一般化能力を利用する。
そして,相関フィルタの識別力を利用して追跡対象を正確に局所化する。
論文 参考訳(メタデータ) (2020-12-23T16:43:21Z) - DS-Net: Dynamic Spatiotemporal Network for Video Salient Object
Detection [78.04869214450963]
時間情報と空間情報のより効果的な融合のための新しい動的時空間ネットワーク(DSNet)を提案する。
提案手法は最先端アルゴリズムよりも優れた性能が得られることを示す。
論文 参考訳(メタデータ) (2020-12-09T06:42:30Z) - TRAT: Tracking by Attention Using Spatio-Temporal Features [14.520067060603209]
空間的特徴と時間的特徴の両方を利用する2ストリームディープニューラルネットワークトラッカーを提案する。
我々のアーキテクチャはATOMトラッカー上で開発され、 (i) 外観特徴を捉える2D-CNNネットワークと (ii) 動作特徴を捉える3D-CNNネットワークの2つのバックボーンを含んでいる。
論文 参考訳(メタデータ) (2020-11-18T20:11:12Z) - Unsupervised Multiple Person Tracking using AutoEncoder-Based Lifted
Multicuts [11.72025865314187]
最小限の視覚的特徴とリフトマルチカットに基づく教師なし多重物体追跡手法を提案する。
提案したアノテーションを使わずにトレーニングされているにもかかわらず,我々のモデルは,歩行者追跡のための挑戦的なMOTベンチマークにおいて,競争力のある結果をもたらすことを示した。
論文 参考訳(メタデータ) (2020-02-04T09:42:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。