論文の概要: Mining Platoon Patterns from Traffic Videos
- arxiv url: http://arxiv.org/abs/2412.20177v1
- Date: Sat, 28 Dec 2024 15:16:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-31 16:04:46.762108
- Title: Mining Platoon Patterns from Traffic Videos
- Title(参考訳): 交通映像からのプラトンパターンのマイニング
- Authors: Yijun Bei, Teng Ma, Dongxiang Zhang, Sai Wu, Kian-Lee Tan, Gang Chen,
- Abstract要約: 本稿では,ビデオデータからコモーメントパターンを緩和し,共通経路における連続性要求を除去する手法を提案する。
MaxGrowthと呼ばれる新しい列挙フレームワークを開発し、緩和されたパターンを効率的に検索する。
私たちのMaxGrowthは、ベースラインアルゴリズムよりも最大2桁高速です。
- 参考スコア(独自算出の注目度): 24.428941688753028
- License:
- Abstract: Discovering co-movement patterns from urban-scale video data sources has emerged as an attractive topic. This task aims to identify groups of objects that travel together along a common route, which offers effective support for government agencies in enhancing smart city management. However, the previous work has made a strong assumption on the accuracy of recovered trajectories from videos and their co-movement pattern definition requires the group of objects to appear across consecutive cameras along the common route. In practice, this often leads to missing patterns if a vehicle is not correctly identified from a certain camera due to object occlusion or vehicle mis-matching. To address this challenge, we propose a relaxed definition of co-movement patterns from video data, which removes the consecutiveness requirement in the common route and accommodates a certain number of missing captured cameras for objects within the group. Moreover, a novel enumeration framework called MaxGrowth is developed to efficiently retrieve the relaxed patterns. Unlike previous filter-and-refine frameworks comprising both candidate enumeration and subsequent candidate verification procedures, MaxGrowth incurs no verification cost for the candidate patterns. It treats the co-movement pattern as an equivalent sequence of clusters, enumerating candidates with increasing sequence length while avoiding the generation of any false positives. Additionally, we also propose two effective pruning rules to efficiently filter the non-maximal patterns. Extensive experiments are conducted to validate the efficiency of MaxGrowth and the quality of its generated co-movement patterns. Our MaxGrowth runs up to two orders of magnitude faster than the baseline algorithm. It also demonstrates high accuracy in real video dataset when the trajectory recovery algorithm is not perfect.
- Abstract(参考訳): 都市規模ビデオデータソースからのコムーブメントパターンの発見が魅力的なトピックとして浮上している。
本課題は、スマートシティ管理の強化において、政府機関に効果的な支援を提供する共通経路に沿って旅行するオブジェクトのグループを特定することを目的とする。
しかし, 従来の研究では, ビデオからの軌跡の復元精度を強く推し進めており, 共同動作パターンの定義では, 共通の経路に沿って連続するカメラに物体群が現れる必要がある。
実際には、物体の隠蔽や車両のミスマッチのために、特定のカメラから車両が正しく識別されていない場合、このパターンは欠落することが多い。
この課題に対処するために,ビデオデータからの協調動作パターンの緩和定義を提案する。
さらに,MaxGrowthと呼ばれる新しい列挙フレームワークを開発し,緩和パターンを効率的に検索する。
従来のフィルタ・アンド・リファインなフレームワークは、候補列挙とその後の候補検証手順の両方で構成されていたが、MaxGrowthでは、候補パターンの検証コストは発生しない。
これは、共動パターンをクラスタの等価なシーケンスとして扱い、任意の偽陽性の発生を回避しながら、シーケンス長が増加する候補を列挙する。
さらに,非最大パターンを効率的にフィルタする2つの効果的なプルーニングルールを提案する。
MaxGrowthの効率と生成したコムーブメントパターンの品質を検証するために、大規模な実験を行った。
私たちのMaxGrowthは、ベースラインアルゴリズムよりも最大2桁高速です。
また、軌道回復アルゴリズムが完璧でない場合に、実際のビデオデータセットで高い精度を示す。
関連論文リスト
- Engineering an Efficient Object Tracker for Non-Linear Motion [0.0]
マルチオブジェクトトラッキングの目標は、シーン内のすべてのオブジェクトを検出し、追跡することである。
このタスクは、動的および非線形な動きパターンを含むシナリオの場合、特に困難である。
本稿では,これらのシナリオに特化して設計された新しい多目的トラッカーであるDeepMoveSORTを紹介する。
論文 参考訳(メタデータ) (2024-06-30T15:50:54Z) - Multi-Scene Generalized Trajectory Global Graph Solver with Composite
Nodes for Multiple Object Tracking [61.69892497726235]
複合ノードメッセージパッシングネットワーク(CoNo-Link)は、超長いフレーム情報を関連付けるためのフレームワークである。
オブジェクトをノードとして扱う従来の方法に加えて、このネットワークは情報インタラクションのためのノードとしてオブジェクトトラジェクトリを革新的に扱う。
我々のモデルは、合成ノードを追加することで、より長い時間スケールでより良い予測を学習することができる。
論文 参考訳(メタデータ) (2023-12-14T14:00:30Z) - Online Deep Clustering with Video Track Consistency [85.8868194550978]
ビデオオブジェクトトラックから視覚的特徴を学習するための教師なしクラスタリングに基づく手法を提案する。
教師なしのクラス非依存でノイズの多いトラックジェネレータを利用すれば、コストと正確なトラックアノテーションに依存するよりも精度が向上することを示す。
論文 参考訳(メタデータ) (2022-06-07T08:11:00Z) - Cross-Camera Trajectories Help Person Retrieval in a Camera Network [124.65912458467643]
既存の手法では、純粋な視覚的マッチングや時間的制約を考慮することが多いが、カメラネットワークの空間情報は無視する。
本稿では,時間的情報と空間的情報を統合したクロスカメラ生成に基づく歩行者検索フレームワークを提案する。
本手法の有効性を検証するため,最初のカメラ横断歩行者軌跡データセットを構築した。
論文 参考訳(メタデータ) (2022-04-27T13:10:48Z) - JOKR: Joint Keypoint Representation for Unsupervised Cross-Domain Motion
Retargeting [53.28477676794658]
ビデオにおける教師なしの動作は ディープ・ニューラル・ネットワークによって 大幅に進歩しました
JOKR(Joint Keypoint Representation)は、オブジェクトの事前やデータ収集を必要とせずに、ソースとターゲットのビデオの両方を処理する。
本手法は質的かつ定量的に評価し,異なる動物,異なる花,人間など,さまざまなクロスドメインシナリオを扱うことを示す。
論文 参考訳(メタデータ) (2021-06-17T17:32:32Z) - Few-Shot Action Recognition with Compromised Metric via Optimal
Transport [31.834843714684343]
少数の画像分類の広い研究にもかかわらず、少数のアクション認識はまだ成熟していません。
これらのアルゴリズムをアクション認識に適用する主な障害の1つは、ビデオの複雑な構造です。
これら2つのソリューションの利点を組み合わせるために、CMOT(Compromised Metric via Optimal Transport)を提案します。
論文 参考訳(メタデータ) (2021-04-08T12:42:05Z) - Spatiotemporal Graph Neural Network based Mask Reconstruction for Video
Object Segmentation [70.97625552643493]
本稿では,クラス非依存オブジェクトを半教師あり設定でセグメント化するタスクについて述べる。
提案手法のすべてを利用して局所的なコンテキストを捕捉する新しいグラフニューラルネットワーク(TG-Net)を提案する。
論文 参考訳(メタデータ) (2020-12-10T07:57:44Z) - Appearance-free Tripartite Matching for Multiple Object Tracking [6.165592821539306]
マルチオブジェクト追跡(MOT)は、入力されたビデオから複数のオブジェクトの軌跡を検出する。
既存のアルゴリズムのほとんどはオブジェクトの外観の特異性に依存しており、支配的な二部マッチング方式は速度の滑らかさを無視する。
両部マッチングの不規則な速度問題を回避するために, 外観自由三部マッチングを提案する。
論文 参考訳(メタデータ) (2020-08-09T02:16:44Z) - Unsupervised Spatio-temporal Latent Feature Clustering for
Multiple-object Tracking and Segmentation [0.5591659577198183]
本稿では,時間的識別タスクを異種時間的クラスタリング問題として扱う戦略を提案する。
我々は、畳み込みと完全に接続されたオートエンコーダを用いて、セグメンテーションマスクと検出バウンディングボックスから識別特徴を学習する。
以上の結果から,本手法はいくつかの最先端手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2020-07-14T16:47:56Z) - Tracking Road Users using Constraint Programming [79.32806233778511]
本稿では,マルチオブジェクトトラッキング(MOT)問題のトラッキング・バイ・検出パラダイムに見られるデータアソシエーションフェーズに対する制約プログラミング(CP)アプローチを提案する。
提案手法は車両追跡データを用いてテストし,UA-DETRACベンチマークの上位手法よりも優れた結果を得た。
論文 参考訳(メタデータ) (2020-03-10T00:04:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。