論文の概要: Joint Object Detection and Multi-Object Tracking with Graph Neural
Networks
- arxiv url: http://arxiv.org/abs/2006.13164v3
- Date: Sat, 3 Apr 2021 13:32:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-17 22:53:28.633483
- Title: Joint Object Detection and Multi-Object Tracking with Graph Neural
Networks
- Title(参考訳): グラフニューラルネットワークを用いた共同物体検出と多物体追跡
- Authors: Yongxin Wang and Kris Kitani and Xinshuo Weng
- Abstract要約: グラフニューラルネットワーク(GNN)に基づく共同MOT手法の新たな例を提案する。
我々は,GNNベースの共同MOT手法の有効性を示し,検出タスクとMOTタスクの両方に対して最先端の性能を示す。
- 参考スコア(独自算出の注目度): 32.1359455541169
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Object detection and data association are critical components in multi-object
tracking (MOT) systems. Despite the fact that the two components are dependent
on each other, prior works often design detection and data association modules
separately which are trained with separate objectives. As a result, one cannot
back-propagate the gradients and optimize the entire MOT system, which leads to
sub-optimal performance. To address this issue, recent works simultaneously
optimize detection and data association modules under a joint MOT framework,
which has shown improved performance in both modules. In this work, we propose
a new instance of joint MOT approach based on Graph Neural Networks (GNNs). The
key idea is that GNNs can model relations between variable-sized objects in
both the spatial and temporal domains, which is essential for learning
discriminative features for detection and data association. Through extensive
experiments on the MOT15/16/17/20 datasets, we demonstrate the effectiveness of
our GNN-based joint MOT approach and show state-of-the-art performance for both
detection and MOT tasks. Our code is available at:
https://github.com/yongxinw/GSDT
- Abstract(参考訳): オブジェクト検出とデータアソシエーションは、マルチオブジェクトトラッキング(MOT)システムにおいて重要なコンポーネントである。
2つのコンポーネントが互いに依存しているにもかかわらず、以前の作業はしばしば、別々の目的でトレーニングされた別個の検出とデータ関連モジュールを設計する。
結果として、勾配をバックプロパゲートしてMOTシステム全体を最適化することはできず、それによって準最適性能が得られる。
この問題に対処するため、最近の研究は共同MOTフレームワークの下で検出モジュールとデータアソシエーションモジュールを同時に最適化し、両方のモジュールのパフォーマンスを改善した。
本稿では,グラフニューラルネットワーク(gnns)に基づく統合motアプローチの新たな例を提案する。
鍵となる考え方は、GNNは空間領域と時間領域の両方における可変サイズのオブジェクト間の関係をモデル化できるということだ。
我々はMOT15/16/17/20データセットの広範な実験を通じて、GNNベースの共同MOTアプローチの有効性を実証し、検出タスクとMOTタスクの両方において最先端のパフォーマンスを示す。
私たちのコードは、https://github.com/yongxinw/GSDTで利用可能です。
関連論文リスト
- STCMOT: Spatio-Temporal Cohesion Learning for UAV-Based Multiple Object Tracking [13.269416985959404]
無人航空機(UAV)ビデオにおける複数物体追跡(MOT)は、コンピュータビジョンにおける多様な用途において重要である。
時空間結合型多目的追跡フレームワーク(STCMOT)を提案する。
歴史的埋め込み機能を用いて,ReIDの表現と検出機能を逐次的にモデル化する。
我々のフレームワークはMOTAとIDF1メトリクスで新しい最先端のパフォーマンスを設定します。
論文 参考訳(メタデータ) (2024-09-17T14:34:18Z) - UnsMOT: Unified Framework for Unsupervised Multi-Object Tracking with
Geometric Topology Guidance [6.577227592760559]
UnsMOTは、オブジェクトの外観と運動の特徴と幾何学的情報を組み合わせて、より正確なトラッキングを提供する新しいフレームワークである。
実験結果から, HOTA, IDF1, MOTAの計測値において, 最先端手法と比較して顕著な性能を示した。
論文 参考訳(メタデータ) (2023-09-03T04:58:12Z) - Unified Visual Relationship Detection with Vision and Language Models [89.77838890788638]
この研究は、複数のデータセットからラベル空間の結合を予測する単一の視覚的関係検出器のトレーニングに焦点を当てている。
視覚と言語モデルを活用した統合視覚関係検出のための新しいボトムアップ手法UniVRDを提案する。
人物体間相互作用検出とシーングラフ生成の双方による実験結果から,本モデルの競合性能が示された。
論文 参考訳(メタデータ) (2023-03-16T00:06:28Z) - 3DMODT: Attention-Guided Affinities for Joint Detection & Tracking in 3D
Point Clouds [95.54285993019843]
本稿では,3次元点雲における複数物体の同時検出と追跡手法を提案する。
本モデルでは,複数のフレームを用いた時間情報を利用してオブジェクトを検出し,一つのネットワーク上で追跡する。
論文 参考訳(メタデータ) (2022-11-01T20:59:38Z) - NL-FCOS: Improving FCOS through Non-Local Modules for Object Detection [0.0]
FCOSヘッドと組み合わせた非局所モジュール(NL-FCOS)は実用的で効率的であることを示す。
衣服検出と手書き量認識問題における最先端性能を確立した。
論文 参考訳(メタデータ) (2022-03-29T15:00:14Z) - Online Multiple Object Tracking with Cross-Task Synergy [120.70085565030628]
位置予測と埋め込み結合の相乗効果を考慮した新しい統一モデルを提案する。
この2つのタスクは、時間認識対象の注意と注意の注意、およびアイデンティティ認識メモリ集約モデルによってリンクされる。
論文 参考訳(メタデータ) (2021-04-01T10:19:40Z) - Simultaneous Detection and Tracking with Motion Modelling for Multiple
Object Tracking [94.24393546459424]
本稿では,複数の物体の運動パラメータを推定し,共同検出と関連付けを行うディープ・モーション・モデリング・ネットワーク(DMM-Net)を提案する。
DMM-Netは、人気の高いUA-DETRACチャレンジで12.80 @120+ fpsのPR-MOTAスコアを達成した。
また,車両追跡のための大規模な公開データセットOmni-MOTを合成し,精密な接地トルースアノテーションを提供する。
論文 参考訳(メタデータ) (2020-08-20T08:05:33Z) - Hierarchical Dynamic Filtering Network for RGB-D Salient Object
Detection [91.43066633305662]
RGB-D Salient Object Detection (SOD) の主な目的は、相互融合情報をよりよく統合し活用する方法である。
本稿では,これらの問題を新たな視点から考察する。
我々は、より柔軟で効率的なマルチスケールのクロスモーダルな特徴処理を実装している。
論文 参考訳(メタデータ) (2020-07-13T07:59:55Z) - A Unified Object Motion and Affinity Model for Online Multi-Object
Tracking [127.5229859255719]
オブジェクトの動きと親和性モデルを単一のネットワークに統一する新しいMOTフレームワークUMAを提案する。
UMAは、単一物体追跡とメートル法学習をマルチタスク学習により統合された三重項ネットワークに統合する。
我々は,タスク認識機能学習を促進するために,タスク固有のアテンションモジュールを装備する。
論文 参考訳(メタデータ) (2020-03-25T09:36:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。