論文の概要: Detection of Micromobility Vehicles in Urban Traffic Videos
- arxiv url: http://arxiv.org/abs/2402.18503v1
- Date: Wed, 28 Feb 2024 17:31:39 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-29 14:04:51.143460
- Title: Detection of Micromobility Vehicles in Urban Traffic Videos
- Title(参考訳): 都市交通ビデオにおけるマイクロモビリティ車両の検出
- Authors: Khalil Sabri, C\'elia Djilali, Guillaume-Alexandre Bilodeau, Nicolas
Saunier, Wassim Bouachir
- Abstract要約: 本研究では、単一フレームオブジェクト検出の精度と速度と、オブジェクト検出フレームワークが提供するよりリッチな機能を組み合わせた、適応型検出モデルを導入する。
この融合は、YOLOX検出能力に時間的視点をもたらし、都市移動パターンをよりよく理解することができる。
都市マイクロモビリティのシナリオをキュレートしたデータセットを用いて実験し、既存の最先端手法よりも大幅に改善されていることを示す。
- 参考スコア(独自算出の注目度): 8.03906709937708
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Urban traffic environments present unique challenges for object detection,
particularly with the increasing presence of micromobility vehicles like
e-scooters and bikes. To address this object detection problem, this work
introduces an adapted detection model that combines the accuracy and speed of
single-frame object detection with the richer features offered by video object
detection frameworks. This is done by applying aggregated feature maps from
consecutive frames processed through motion flow to the YOLOX architecture.
This fusion brings a temporal perspective to YOLOX detection abilities,
allowing for a better understanding of urban mobility patterns and
substantially improving detection reliability. Tested on a custom dataset
curated for urban micromobility scenarios, our model showcases substantial
improvement over existing state-of-the-art methods, demonstrating the need to
consider spatio-temporal information for detecting such small and thin objects.
Our approach enhances detection in challenging conditions, including
occlusions, ensuring temporal consistency, and effectively mitigating motion
blur.
- Abstract(参考訳): 都市交通環境は、特に電動スクーターや自転車のようなマイクロモビリティー車両の存在が増加する中で、物体検出に特有の課題を呈している。
このオブジェクト検出問題に対処するため、本研究では、単一フレームオブジェクト検出の精度と速度と、ビデオオブジェクト検出フレームワークが提供するよりリッチな機能を組み合わせた適応型検出モデルを導入する。
これは、移動フローによって処理された連続フレームから集約された特徴写像をYOLOXアーキテクチャに適用することで実現される。
この融合は、YOLOX検出能力に時間的視点をもたらし、都市移動パターンをよりよく理解し、検出信頼性を大幅に向上させる。
都市マイクロモビリティシナリオ用にキュレートされたカスタムデータセット上でテストした結果,既存の最先端手法よりも大幅に改善され,このような小さく薄い物体を検出するための時空間情報を考慮する必要性が示された。
本手法は, 咬合, 時間的一貫性の確保, 運動のぼかしの効果的緩和など, 困難な条件下での検出性を高める。
関連論文リスト
- CRASH: Crash Recognition and Anticipation System Harnessing with Context-Aware and Temporal Focus Attentions [13.981748780317329]
カメラ映像から周囲の交通機関の事故を正確にかつ迅速に予測することは、自動運転車(AV)の安全性に不可欠である
本研究は, CRASH と呼ばれる, AV の新たな事故予測フレームワークを提案する。
オブジェクト検出、特徴抽出、オブジェクト認識モジュール、コンテキスト認識モジュール、多層融合の5つのコンポーネントをシームレスに統合する。
私たちのモデルは、平均精度(AP)や平均到達時間(mTTA)といった重要な評価指標において、既存のトップベースラインを超えています。
論文 参考訳(メタデータ) (2024-07-25T04:12:49Z) - OOSTraj: Out-of-Sight Trajectory Prediction With Vision-Positioning Denoising [49.86409475232849]
軌道予測はコンピュータビジョンと自律運転の基本である。
この分野における既存のアプローチは、しばしば正確で完全な観測データを仮定する。
本稿では,視覚的位置決め技術を利用した視線外軌道予測手法を提案する。
論文 参考訳(メタデータ) (2024-04-02T18:30:29Z) - Layout Sequence Prediction From Noisy Mobile Modality [53.49649231056857]
軌道予測は、自律運転やロボット工学などの応用における歩行者運動を理解する上で重要な役割を担っている。
現在の軌道予測モデルは、視覚的モダリティからの長い、完全な、正確に観察されたシーケンスに依存する。
本稿では,物体の障害物や視界外を,完全に視認できる軌跡を持つものと同等に扱う新しいアプローチであるLTrajDiffを提案する。
論文 参考訳(メタデータ) (2023-10-09T20:32:49Z) - DARTH: Holistic Test-time Adaptation for Multiple Object Tracking [87.72019733473562]
複数物体追跡(MOT)は、自律運転における知覚システムの基本的構成要素である。
運転システムの安全性の追求にもかかわらず、テスト時間条件における領域シフトに対するMOT適応問題に対する解決策は提案されていない。
我々はMOTの総合的なテスト時間適応フレームワークであるDARTHを紹介する。
論文 参考訳(メタデータ) (2023-10-03T10:10:42Z) - MotionTrack: Learning Motion Predictor for Multiple Object Tracking [68.68339102749358]
本研究では,学習可能なモーション予測器を中心に,新しいモーショントラッカーであるMotionTrackを紹介する。
実験結果から、MotionTrackはDancetrackやSportsMOTといったデータセット上での最先端のパフォーマンスを示す。
論文 参考訳(メタデータ) (2023-06-05T04:24:11Z) - Cross-Domain Car Detection Model with Integrated Convolutional Block
Attention Mechanism [3.3843451892622576]
統合畳み込みブロックアテンション機構を用いたクロスドメイン車目標検出モデルを提案する。
実験の結果,我々のフレームワークを使わずに,モデルの性能が40%向上したことがわかった。
論文 参考訳(メタデータ) (2023-05-31T17:28:13Z) - Robust and Fast Vehicle Detection using Augmented Confidence Map [10.261351772602543]
車両を含む関心領域を強調する拡張の概念を導入する。
MR-MSERの出力は高速CNNに供給され、信頼マップを生成する。
車両検出のための複雑なモデルを実装する既存のモデルとは異なり、粗いセットとファジィベースのモデルの組み合わせについて検討する。
論文 参考訳(メタデータ) (2023-04-27T18:41:16Z) - Spatio-Temporal Context Modeling for Road Obstacle Detection [12.464149169670735]
トレーニングデータのレイアウトを用いて、駆動シーンのデータ駆動コンテキスト時間モデルを構築する。
障害物は最先端のオブジェクト検出アルゴリズムによって検出され、結果は生成されたシーンと組み合わせられる。
論文 参考訳(メタデータ) (2023-01-19T07:06:35Z) - Real-Time Accident Detection in Traffic Surveillance Using Deep Learning [0.8808993671472349]
本稿では,交通監視用交差点における事故検出のための新しい効率的な枠組みを提案する。
提案手法は,最先端のYOLOv4法に基づく効率的かつ高精度な物体検出を含む,3つの階層的なステップから構成される。
提案フレームワークのロバスト性は,様々な照明条件でYouTubeから収集した映像シーケンスを用いて評価する。
論文 参考訳(メタデータ) (2022-08-12T19:07:20Z) - Implicit Motion Handling for Video Camouflaged Object Detection [60.98467179649398]
本稿では,新しいビデオカモフラージュオブジェクト検出(VCOD)フレームワークを提案する。
短期的および長期的整合性を利用して、ビデオフレームからカモフラージュされたオブジェクトを検出する。
論文 参考訳(メタデータ) (2022-03-14T17:55:41Z) - SoDA: Multi-Object Tracking with Soft Data Association [75.39833486073597]
マルチオブジェクトトラッキング(MOT)は、自動運転車の安全な配備の前提条件である。
観測対象間の依存関係をエンコードするトラック埋め込みの計算に注目するMOTに対する新しいアプローチを提案する。
論文 参考訳(メタデータ) (2020-08-18T03:40:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。