論文の概要: Benchmarking high-fidelity pedestrian tracking systems for research,
real-time monitoring and crowd control
- arxiv url: http://arxiv.org/abs/2108.11719v1
- Date: Thu, 26 Aug 2021 11:45:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-27 13:53:47.576284
- Title: Benchmarking high-fidelity pedestrian tracking systems for research,
real-time monitoring and crowd control
- Title(参考訳): 研究・リアルタイムモニタリング・クラウド制御のための高忠実度歩行者追跡システム
- Authors: Caspar A. S. Pouw, Joris Willems, Frank van Schadewijk, Jasmin Thurau,
Federico Toschi, Alessandro Corbetta
- Abstract要約: 実生活環境における高忠実な歩行者追跡は,群集動態研究において重要なツールである。
この技術が進歩するにつれて、社会においても益々有用になってきている。
歩行者追跡技術の研究と技術に成功させるためには、正確さの検証とベンチマークが不可欠である。
我々は、プライバシーに配慮した歩行者追跡技術のためのベンチマークスイートをコミュニティのオープンスタンダードに向けて提示し、議論する。
- 参考スコア(独自算出の注目度): 55.41644538483948
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: High-fidelity pedestrian tracking in real-life conditions has been an
important tool in fundamental crowd dynamics research allowing to quantify
statistics of relevant observables including walking velocities, mutual
distances and body orientations. As this technology advances, it is becoming
increasingly useful also in society. In fact, continued urbanization is
overwhelming existing pedestrian infrastructures such as transportation hubs
and stations, generating an urgent need for real-time highly-accurate usage
data, aiming both at flow monitoring and dynamics understanding. To
successfully employ pedestrian tracking techniques in research and technology,
it is crucial to validate and benchmark them for accuracy. This is not only
necessary to guarantee data quality, but also to identify systematic errors.
In this contribution, we present and discuss a benchmark suite, towards an
open standard in the community, for privacy-respectful pedestrian tracking
techniques. The suite is technology-independent and is applicable to academic
and commercial pedestrian tracking systems, operating both in lab environments
and real-life conditions. The benchmark suite consists of 5 tests addressing
specific aspects of pedestrian tracking quality, including accurate crowd flux
estimation, density estimation, position detection and trajectory accuracy. The
output of the tests are quality factors expressed as single numbers. We provide
the benchmark results for two tracking systems, both operating in real-life,
one commercial, and the other based on overhead depth-maps developed at TU
Eindhoven. We discuss the results on the basis of the quality factors and
report on the typical sensor and algorithmic performance. This enables us to
highlight the current state-of-the-art, its limitations and provide
installation recommendations, with specific attention to multi-sensor setups
and data stitching.
- Abstract(参考訳): 実生活環境における高忠実度歩行者追跡は, 歩行速度, 相互距離, 身体方向など, 関連する観測対象の統計を定量化できる, 基本的な群集動力学研究において重要なツールである。
この技術が進歩するにつれて、社会においても益々有用になりつつある。
実際、継続的な都市化は交通ハブや駅などの既存の歩行者インフラを圧倒し、流れのモニタリングと動的理解の両方を目指して、リアルタイムの高精度な利用データに対する緊急の需要を生み出している。
歩行者追跡技術の研究と技術に成功させるためには、正確さの検証とベンチマークが不可欠である。
これはデータ品質の保証だけでなく、体系的なエラーの特定にも必要です。
本稿では,プライバシーに配慮した歩行者追跡技術について,コミュニティにおけるオープンスタンダードに向けたベンチマークスイートを提示し,議論する。
このスイートは技術に依存しず、学術および商業の歩行者追跡システムに適用でき、実験室環境と実生活環境の両方で動作する。
ベンチマークスイートは、正確な群衆フラックス推定、密度推定、位置検出、軌道精度を含む、歩行者追跡品質の特定の側面に対処する5つのテストで構成される。
テストの出力は、単一の数で表される品質要素である。
TU Eindhovenで開発された頭上の深度マップに基づいて,実運用と商用の2つの追跡システムのベンチマーク結果を提供する。
評価結果は品質要因に基づいて検討し,典型的なセンサとアルゴリズムの性能について報告する。
これにより、現在の最先端、その制限、インストールの推奨事項、特にマルチセンサーのセットアップとデータステッチに注意を払うことができます。
関連論文リスト
- Research, Applications and Prospects of Event-Based Pedestrian Detection: A Survey [10.494414329120909]
生物学的網膜にインスパイアされたイベントベースのカメラは、最小限の電力要求、無視できるレイテンシ、時間分解能、拡張可能なダイナミックレンジによって区別される最先端のセンサーへと進化してきた。
イベントベースのカメラは、高速撮像のシナリオにおいて、外部データ伝送を誘発し、動きのぼやけをなくすことによって制限に対処する。
本稿では,特に自律運転における研究と応用について概観する。
論文 参考訳(メタデータ) (2024-07-05T06:17:00Z) - OOSTraj: Out-of-Sight Trajectory Prediction With Vision-Positioning Denoising [49.86409475232849]
軌道予測はコンピュータビジョンと自律運転の基本である。
この分野における既存のアプローチは、しばしば正確で完全な観測データを仮定する。
本稿では,視覚的位置決め技術を利用した視線外軌道予測手法を提案する。
論文 参考訳(メタデータ) (2024-04-02T18:30:29Z) - PUCK: Parallel Surface and Convolution-kernel Tracking for Event-Based
Cameras [4.110120522045467]
イベントカメラは、動的環境における高速な視覚センシングを保証できるが、ロボットのエゴモーションによって引き起こされる高いデータ速度に追従できる追跡アルゴリズムを必要とする。
本稿では,EROS(Exponential Reduced Ordinal Surface)データ表現を利用してイベント・バイ・イベント処理とトラッキングを分離する新しいトラッキング手法を提案する。
エアホッケーパックが表面を滑り落ちるのをトラッキングするタスクを提案し、将来はiCubロボットを正確に時間通りに目標に到達させることが目的である。
論文 参考訳(メタデータ) (2022-05-16T13:23:52Z) - Automated Mobility Context Detection with Inertial Signals [7.71058263701836]
本研究の主な目的は,日常の運動機能の遠隔監視のためのコンテキスト検出について検討することである。
本研究の目的は、ウェアラブル加速度計でサンプリングされた慣性信号が、歩行関連活動を屋内または屋外に分類するための信頼性の高い情報を提供するかを理解することである。
論文 参考訳(メタデータ) (2022-05-16T09:34:43Z) - Scalable and Real-time Multi-Camera Vehicle Detection,
Re-Identification, and Tracking [58.95210121654722]
理想化されたビデオストリームやキュレートされたビデオストリームの代わりに,リアルタイムで低解像度のCCTVを処理する,リアルタイムな都市規模のマルチカメラ車両追跡システムを提案する。
私たちの手法は、公共のリーダーボードで上位5人のパフォーマーにランク付けされています。
論文 参考訳(メタデータ) (2022-04-15T12:47:01Z) - Pedestrian Detection: Domain Generalization, CNNs, Transformers and
Beyond [82.37430109152383]
その結果、現在の歩行者検知器は、クロスデータセット評価において、たとえ小さな領域シフトであっても処理が不十分であることがわかった。
限定的な一般化は、その方法と現在のデータ源の2つの主要な要因に帰着する。
本稿では、一般化を改善する進歩的な微調整戦略を提案する。
論文 参考訳(メタデータ) (2022-01-10T06:00:26Z) - Predictive Visual Tracking: A New Benchmark and Baseline Approach [27.87099869398515]
実世界のシナリオでは、画像ストリームのオンボード処理時間が必然的に追跡結果と実世界の状態との間に不一致をもたらす。
既存のビジュアルトラッキングベンチマークは、一般的にトラッカーをオフラインで実行し、評価においてそのような遅延を無視する。
本研究は,より現実的な遅延認識トラッキング問題に対処することを目的としている。
論文 参考訳(メタデータ) (2021-03-08T01:50:05Z) - From Handcrafted to Deep Features for Pedestrian Detection: A Survey [148.35460817092908]
歩行者検出はコンピュータビジョンにおいて重要であるが難しい問題である。
過去10年間で、手作りの機能と深い機能によって、大幅な改善が見られた。
単スペクトル歩行者検出に加えて,多スペクトル歩行者検出も検討した。
論文 参考訳(メタデータ) (2020-10-01T14:51:10Z) - Generalizable Pedestrian Detection: The Elephant In The Room [82.37430109152383]
既存の最先端の歩行者検出器は、同じデータセット上でトレーニングやテストを行う際には、非常によく機能するが、データセット間の評価では、十分に一般化されていない。
ウェブをクロールすることで収集される多様で高密度なデータセットは、歩行者検出のための事前学習の効率的な情報源であることを示す。
論文 参考訳(メタデータ) (2020-03-19T14:14:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。