論文の概要: Intelligent driving vehicle front multi-target tracking and detection based on YOLOv5 and point cloud 3D projection
- arxiv url: http://arxiv.org/abs/2504.11310v1
- Date: Sun, 13 Apr 2025 17:50:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-16 22:09:36.634748
- Title: Intelligent driving vehicle front multi-target tracking and detection based on YOLOv5 and point cloud 3D projection
- Title(参考訳): YOLOv5とポイントクラウド3Dプロジェクションに基づく自動車前方多目標追跡と検出
- Authors: Dayong Liu, Qingrui Zhang, Zeyang Meng,
- Abstract要約: YOLOv5とポイントクラウド3Dプロジェクションに基づく知的運転車の多対象追跡・検出手法を提案する。
Retinexアルゴリズムを使用して、車両前方の環境のイメージを強化し、画像内の光干渉を除去し、YOLOv5ネットワーク構造に基づいたインテリジェントな検出モデルを構築する。
実験結果から, 知的運転車前方多目標追尾・検出への本手法の適用により, 30以上のMOTA値が得られ, 優れた追尾・検出性能が示された。
- 参考スコア(独自算出の注目度): 2.6968321526169503
- License:
- Abstract: In multi-target tracking and detection tasks, it is necessary to continuously track multiple targets, such as vehicles, pedestrians, etc. To achieve this goal, the system must be able to continuously acquire and process image frames containing these targets. These consecutive frame images enable the algorithm to update the position and state of the target in real-time in each frame of the image. How to accurately associate the detected target with the target in the previous or next frame to form a stable trajectory is a complex problem. Therefore, a multi object tracking and detection method for intelligent driving vehicles based on YOLOv5 and point cloud 3D projection is proposed. Using Retinex algorithm to enhance the image of the environment in front of the vehicle, remove light interference in the image, and build an intelligent detection model based on YOLOv5 network structure. The enhanced image is input into the model, and multiple targets in front of the vehicle are identified through feature extraction and target localization. By combining point cloud 3D projection technology, the correlation between the position changes of adjacent frame images in the projection coordinate system can be inferred. By sequentially projecting the multi-target recognition results of multiple consecutive frame images into the 3D laser point cloud environment, effective tracking of the motion trajectories of all targets in front of the vehicle can be achieved. The experimental results show that the application of this method for intelligent driving vehicle front multi-target tracking and detection yields a MOTA (Tracking Accuracy) value greater than 30, demonstrating its superior tracking and detection performance.
- Abstract(参考訳): マルチターゲット追跡・検知タスクでは、車や歩行者など、複数の目標を継続的に追跡する必要がある。
この目的を達成するために、システムはこれらのターゲットを含む画像フレームを継続的に取得、処理できなければならない。
これらの連続したフレーム画像は、アルゴリズムが画像の各フレームにおけるターゲットの位置と状態をリアルタイムで更新することを可能にする。
検出された目標を前フレームまたは次フレームのターゲットと正確に関連付け、安定した軌道を形成する方法は、複雑な問題である。
そこで, YOLOv5とポイントクラウド3Dプロジェクションに基づく知的運転車の多対象追跡・検出手法を提案する。
Retinexアルゴリズムを使用して、車両前方の環境のイメージを強化し、画像内の光干渉を除去し、YOLOv5ネットワーク構造に基づいたインテリジェントな検出モデルを構築する。
モデルに強調画像が入力され、特徴抽出と目標位置決めにより車両前方の複数のターゲットが識別される。
点雲3D投影技術を組み合わせることにより、投影座標系における隣接フレーム画像の位置変化の相関を推定することができる。
複数の連続したフレーム画像のマルチターゲット認識結果を3次元レーザーポイントクラウド環境に順次投影することにより、車両前方の全目標の運動軌跡を効果的に追跡することができる。
実験結果から, 知的運転車前方多目標追尾・検出への本手法の適用により, MOTA(Tracking Accuracy)値が30以上となり, 優れた追尾・検出性能が示された。
関連論文リスト
- Combining YOLO and Visual Rhythm for Vehicle Counting [0.36832029288386137]
ビデオによる車両の検知とカウントは、輸送インフラの管理において重要な役割を果たす。
従来の画像ベースのカウント手法は、通常、初期検出とその後の追跡という2つの主要なステップを含む。
本研究は、車両の検出とカウントのための代替的で効率的な方法を提案する。
論文 参考訳(メタデータ) (2025-01-08T14:33:47Z) - An Efficient Wide-Range Pseudo-3D Vehicle Detection Using A Single
Camera [10.573423265001706]
本稿では,1台のカメラからの画像に基づく広帯域Pseudo-3D車両検出手法を提案する。
擬似3次元物体を検出するために,本モデルは特別に設計された検出ヘッドを採用する。
オブジェクトボックスとSPLを併用した共同制約損失はモデルトレーニング時に設計され、モデルの効率、安定性、予測精度が向上する。
論文 参考訳(メタデータ) (2023-09-15T12:50:09Z) - Modeling Continuous Motion for 3D Point Cloud Object Tracking [54.48716096286417]
本稿では,各トラックレットを連続ストリームとみなす新しいアプローチを提案する。
各タイムスタンプでは、現在のフレームだけがネットワークに送られ、メモリバンクに格納された複数フレームの履歴機能と相互作用する。
頑健な追跡のためのマルチフレーム機能の利用性を高めるために,コントラッシブシーケンス強化戦略を提案する。
論文 参考訳(メタデータ) (2023-03-14T02:58:27Z) - Unleash the Potential of Image Branch for Cross-modal 3D Object
Detection [67.94357336206136]
画像分岐のポテンシャルを2つの側面から解き放つことを目的として,新しい3Dオブジェクト検出器UPIDetを提案する。
まず、UPIDetは正規化された局所座標写像推定と呼ばれる新しい2次元補助タスクを導入する。
第2に,イメージブランチのトレーニング目標から逆転する勾配によって,ポイントクラウドバックボーンの表現能力を向上できることを見出した。
論文 参考訳(メタデータ) (2023-01-22T08:26:58Z) - DETR4D: Direct Multi-View 3D Object Detection with Sparse Attention [50.11672196146829]
サラウンドビュー画像を用いた3次元物体検出は、自動運転にとって必須の課題である。
マルチビュー画像における3次元オブジェクト検出のためのスパースアテンションと直接特徴クエリを探索するトランスフォーマーベースのフレームワークであるDETR4Dを提案する。
論文 参考訳(メタデータ) (2022-12-15T14:18:47Z) - A Simple Baseline for Multi-Camera 3D Object Detection [94.63944826540491]
周囲のカメラで3Dオブジェクトを検出することは、自動運転にとって有望な方向だ。
マルチカメラオブジェクト検出のための簡易ベースラインであるSimMODを提案する。
我々は, nuScenes の3次元オブジェクト検出ベンチマークにおいて, SimMOD の有効性を示す広範囲な実験を行った。
論文 参考訳(メタデータ) (2022-08-22T03:38:01Z) - Multi-Camera Multiple 3D Object Tracking on the Move for Autonomous
Vehicles [17.12321292167318]
オブジェクトの検出と追跡は、カメラのビューにまたがって一貫した結果を達成するなど、新しい課題に対処するために重要である。
本研究は,既存のトラックレットの位置とリンク検出をトラックレットで予測するために,リンク予測を用いた新たなグローバルアソシエーショングラフモデルを提案する。
本モデルは, nuScenes 検出課題における標準3次元物体検出器の検出精度の向上に有効である。
論文 参考訳(メタデータ) (2022-04-19T22:50:36Z) - CFTrack: Center-based Radar and Camera Fusion for 3D Multi-Object
Tracking [9.62721286522053]
本稿では,レーダとカメラセンサの融合に基づく共同物体検出と追跡のためのエンドツーエンドネットワークを提案する。
提案手法では,物体検出に中心型レーダカメラ融合アルゴリズムを用い,物体関連にグリーディアルゴリズムを用いる。
提案手法は,20.0AMOTAを達成し,ベンチマークにおける視覚ベースの3Dトラッキング手法よりも優れる,挑戦的なnuScenesデータセット上で評価する。
論文 参考訳(メタデータ) (2021-07-11T23:56:53Z) - Learnable Online Graph Representations for 3D Multi-Object Tracking [156.58876381318402]
3D MOT問題に対する統一型学習型アプローチを提案します。
我々は、完全にトレーニング可能なデータアソシエーションにNeural Message Passing Networkを使用します。
AMOTAの65.6%の最先端性能と58%のIDスウィッチを達成して、公開可能なnuScenesデータセットに対する提案手法のメリットを示す。
論文 参考訳(メタデータ) (2021-04-23T17:59:28Z) - Monocular Quasi-Dense 3D Object Tracking [99.51683944057191]
周囲の物体の将来の位置を予測し、自律運転などの多くのアプリケーションで観測者の行動を計画するためには、信頼性と正確な3D追跡フレームワークが不可欠である。
移動プラットフォーム上で撮影された2次元画像のシーケンスから,移動物体を時間とともに効果的に関連付け,その全3次元バウンディングボックス情報を推定するフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-12T15:30:02Z) - Traffic-Aware Multi-Camera Tracking of Vehicles Based on ReID and Camera
Link Model [43.850588717944916]
MTMCT(Multi-target Multi-camera Tracking)は,スマートシティアプリケーションにおいて重要な技術である。
本稿では,車載用MTMCTフレームワークを提案する。
提案するMTMCTは,CityFlowデータセットを用いて評価し,IDF1の74.93%の新たな最先端性能を実現する。
論文 参考訳(メタデータ) (2020-08-22T08:54:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。