論文の概要: MVTrajecter: Multi-View Pedestrian Tracking with Trajectory Motion Cost and Trajectory Appearance Cost
- arxiv url: http://arxiv.org/abs/2509.01157v1
- Date: Mon, 01 Sep 2025 06:27:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 15:17:03.556973
- Title: MVTrajecter: Multi-View Pedestrian Tracking with Trajectory Motion Cost and Trajectory Appearance Cost
- Title(参考訳): MVTrajecter:軌道運動コストと軌道外観コストを考慮した多視点歩行者追跡
- Authors: Taiga Yamane, Ryo Masumura, Satoshi Suzuki, Shota Orihashi,
- Abstract要約: マルチビュー歩行者追跡(Multi-View Pedestrian Tracking, MVPT)は、多視点ビデオから鳥の視線占有地図の形で歩行者を追跡することを目的としている。
本稿では,Multi-View Trajectory Tracker (MVTrajecter) と呼ばれる新しいエンドツーエンドMVPT手法を提案する。
MVTrajecterは、過去の軌道における複数のタイムスタンプからの情報をロバストなアソシエーションに利用する。
- 参考スコア(独自算出の注目度): 18.53477321964655
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-View Pedestrian Tracking (MVPT) aims to track pedestrians in the form of a bird's eye view occupancy map from multi-view videos. End-to-end methods that detect and associate pedestrians within one model have shown great progress in MVPT. The motion and appearance information of pedestrians is important for the association, but previous end-to-end MVPT methods rely only on the current and its single adjacent past timestamp, discarding the past trajectories before that. This paper proposes a novel end-to-end MVPT method called Multi-View Trajectory Tracker (MVTrajecter) that utilizes information from multiple timestamps in past trajectories for robust association. MVTrajecter introduces trajectory motion cost and trajectory appearance cost to effectively incorporate motion and appearance information, respectively. These costs calculate which pedestrians at the current and each past timestamp are likely identical based on the information between those timestamps. Even if a current pedestrian could be associated with a false pedestrian at some past timestamp, these costs enable the model to associate that current pedestrian with the correct past trajectory based on other past timestamps. In addition, MVTrajecter effectively captures the relationships between multiple timestamps leveraging the attention mechanism. Extensive experiments demonstrate the effectiveness of each component in MVTrajecter and show that it outperforms the previous state-of-the-art methods.
- Abstract(参考訳): マルチビュー歩行者追跡(Multi-View Pedestrian Tracking, MVPT)は、多視点ビデオから鳥の視線占有地図の形で歩行者を追跡することを目的としている。
1つのモデル内で歩行者を検知し、関連付けるエンドツーエンドの手法はMVPTにおいて大きな進歩を見せている。
歩行者の移動と外観情報は、この協会にとって重要であるが、過去のMVPT手法は、現在と隣接する1つの過去のタイムスタンプにのみ依存しており、過去の軌跡を放棄している。
本稿では,過去のトラジェクトリにおける複数のタイムスタンプからの情報をロバストなアソシエーションに利用する,Multi-View Trajectory Tracker (MVTrajecter) と呼ばれる新しいエンドツーエンドMVPT手法を提案する。
MVTrajecterは、運動情報と外観情報を効果的に組み込むために、軌跡運動コストと軌跡外観コストを導入する。
これらのコストは、現在のタイムスタンプと過去のタイムスタンプ間の情報に基づいて、どの歩行者が同一であるかを計算する。
たとえ現在の歩行者が、ある過去のタイムスタンプで偽の歩行者と結びつくことができたとしても、これらのコストは、現在の歩行者と、他の過去のタイムスタンプに基づいて正しい過去の軌跡を関連付けることができる。
さらに、MVTrajecterは、アテンション機構を利用した複数のタイムスタンプ間の関係を効果的にキャプチャする。
MVTrajecterにおける各コンポーネントの有効性を実証し、従来の最先端手法よりも優れていることを示す。
関連論文リスト
- Online Dense Point Tracking with Streaming Memory [54.22820729477756]
デンスポイントトラッキングは、ビデオのかなりの部分を通して、初期フレーム内のすべてのポイントの連続的な追跡を必要とする、困難なタスクである。
最近の点追跡アルゴリズムは、通常、最初のフレームから現在のフレームへの間接的な情報伝達のためにスライドウィンドウに依存する。
我々は、高密度のtextbfPOint textbfTracking とオンラインビデオ処理のための textbfStreaming メモリを備えた軽量で高速なモデルを提案する。
論文 参考訳(メタデータ) (2025-03-09T06:16:49Z) - FastTrackTr:Towards Fast Multi-Object Tracking with Transformers [33.60043236101685]
トランスフォーマーベースのマルチオブジェクト追跡(MOT)モデルは、しばしば構造や他の問題によって推論速度が遅くなる。
本稿では,高速かつ斬新なJDT型MOTフレームワークであるFastTrackTrを構築し,DETR上のフレーム間の情報伝達を効率的に行う手法を提案する。
この情報伝達手法の優位性により,本手法はトラッキング時に要求されるクエリ数を削減できるだけでなく,ネットワーク構造が過度に導入されるのを避けることができる。
論文 参考訳(メタデータ) (2024-11-24T12:34:02Z) - Walker: Self-supervised Multiple Object Tracking by Walking on Temporal Appearance Graphs [117.67620297750685]
これは、疎結合なボックスアノテーションとトラッキングラベルのないビデオから学習する、初めてのセルフ教師付きトラッカーである。
Walker氏はMOT17、DanceTrack、BDD100Kで競争力を発揮する最初のセルフトラッカーである。
論文 参考訳(メタデータ) (2024-09-25T18:00:00Z) - Tracking by Associating Clips [110.08925274049409]
本稿では,オブジェクト関連をクリップワイドマッチングとして扱う方法を検討する。
我々の新しい視点では、1つの長いビデオシーケンスを複数のショートクリップとみなし、そのトラックはクリップ内とクリップ間の両方で実行される。
この新しい手法の利点は2つある。まず、ビデオチャンキングによって中断フレームをバイパスできるため、エラーの蓄積や伝播の追跡に頑健である。
次に、クリップワイドマッチング中に複数のフレーム情報を集約し、現在のフレームワイドマッチングよりも高精度な長距離トラックアソシエーションを実現する。
論文 参考訳(メタデータ) (2022-12-20T10:33:17Z) - PatchTrack: Multiple Object Tracking Using Frame Patches [4.682271723286086]
PatchTrackはトランスフォーマーベースの共同検出・追跡システムで、現在の関心フレームのパッチを用いてトラックを予測します。
我々はMOT16(MOTA 73.71%, IDF1 65.77%)やMOT17(MOTA 73.59%, IDF1 65.23%)を含む最近のMOTベンチマークにおけるPatchTrackの有効性を示す。
論文 参考訳(メタデータ) (2022-01-01T00:16:45Z) - Probabilistic Tracklet Scoring and Inpainting for Multiple Object
Tracking [83.75789829291475]
本稿では,トラックレット提案の確率的自己回帰運動モデルを提案する。
これは、我々のモデルを訓練して、自然のトラックレットの基盤となる分布を学習することで達成される。
我々の実験は、挑戦的なシーケンスにおける物体の追跡におけるアプローチの優位性を実証している。
論文 参考訳(メタデータ) (2020-12-03T23:59:27Z) - MOTChallenge: A Benchmark for Single-Camera Multiple Target Tracking [72.76685780516371]
単カメラ多目的追跡(MOT)のためのベンチマークMOTChallengeを提案する。
このベンチマークは、歩行者がトラッキングコミュニティで最も研究されているオブジェクトであるため、複数の人を追跡することに重点を置いている。
我々は,最先端トラッカーの分類と広い誤差解析を行う。
論文 参考訳(メタデータ) (2020-10-15T06:52:16Z) - ArTIST: Autoregressive Trajectory Inpainting and Scoring for Tracking [80.02322563402758]
オンラインマルチオブジェクトトラッキング(MOT)フレームワークの中核的なコンポーネントの1つは、既存のトラックレットと新しい検出を関連付けることである。
そこで我々は,トラックレットが自然運動を表す可能性を直接測定することにより,トラックレットの提案を評価する確率論的自己回帰生成モデルを提案する。
論文 参考訳(メタデータ) (2020-04-16T06:43:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。