論文の概要: An Efficient Wide-Range Pseudo-3D Vehicle Detection Using A Single
Camera
- arxiv url: http://arxiv.org/abs/2309.08369v1
- Date: Fri, 15 Sep 2023 12:50:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-18 14:42:08.805571
- Title: An Efficient Wide-Range Pseudo-3D Vehicle Detection Using A Single
Camera
- Title(参考訳): 単一カメラを用いた高効率広視野擬似3次元車両検出
- Authors: Zhupeng Ye, Yinqi Li, Zejian Yuan
- Abstract要約: 本稿では,1台のカメラからの画像に基づく広帯域Pseudo-3D車両検出手法を提案する。
擬似3次元物体を検出するために,本モデルは特別に設計された検出ヘッドを採用する。
オブジェクトボックスとSPLを併用した共同制約損失はモデルトレーニング時に設計され、モデルの効率、安定性、予測精度が向上する。
- 参考スコア(独自算出の注目度): 10.573423265001706
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Wide-range and fine-grained vehicle detection plays a critical role in
enabling active safety features in intelligent driving systems. However,
existing vehicle detection methods based on rectangular bounding boxes (BBox)
often struggle with perceiving wide-range objects, especially small objects at
long distances. And BBox expression cannot provide detailed geometric shape and
pose information of vehicles. This paper proposes a novel wide-range Pseudo-3D
Vehicle Detection method based on images from a single camera and incorporates
efficient learning methods. This model takes a spliced image as input, which is
obtained by combining two sub-window images from a high-resolution image. This
image format maximizes the utilization of limited image resolution to retain
essential information about wide-range vehicle objects. To detect pseudo-3D
objects, our model adopts specifically designed detection heads. These heads
simultaneously output extended BBox and Side Projection Line (SPL)
representations, which capture vehicle shapes and poses, enabling
high-precision detection. To further enhance the performance of detection, a
joint constraint loss combining both the object box and SPL is designed during
model training, improving the efficiency, stability, and prediction accuracy of
the model. Experimental results on our self-built dataset demonstrate that our
model achieves favorable performance in wide-range pseudo-3D vehicle detection
across multiple evaluation metrics. Our demo video has been placed at
https://www.youtube.com/watch?v=1gk1PmsQ5Q8.
- Abstract(参考訳): 広範囲かつ細かな車両検出は、インテリジェント運転システムにおける能動安全機能を実現する上で重要な役割を担っている。
しかし、直方体境界箱(BBox)に基づく既存の車両検出法は、特に長距離の狭い物体を知覚するのにしばしば苦労する。
そして、bbox式は、車両の詳細な幾何学的形状とポーズ情報を提供できない。
本稿では,1台のカメラからの画像に基づく広帯域Pseudo-3D車両検出手法を提案する。
このモデルは、高解像度画像から2つのサブウィンドウ画像を組み合わせたスプリシング画像を入力とする。
この画像フォーマットは、限られた画像解像度の利用を最大化し、広範囲の車両オブジェクトに関する必須情報を保持する。
擬似3次元物体を検出するために,本モデルは特別に設計された検出ヘッドを採用する。
これらのヘッドは、拡張されたbboxおよびside projection line (spl)表現を同時に出力し、車両の形状とポーズをキャプチャし、高精度な検出を可能にする。
検出性能をさらに向上させるため、モデルトレーニング中にオブジェクトボックスとsplとを結合したジョイント制約損失を設計でき、モデルの効率、安定性、予測精度が向上する。
自作データセットを用いた実験結果から, 広域擬似3次元車両検出において, 複数の評価指標間で良好な性能が得られた。
デモビデオはhttps://www.youtube.com/watch?
v=1gk1PmsQ5Q8。
関連論文リスト
- HeightFormer: A Semantic Alignment Monocular 3D Object Detection Method from Roadside Perspective [11.841338298700421]
本研究では,空間的前駆体とVoxel Pooling formerを統合した3次元物体検出フレームワークを提案する。
Rope3DとDAIR-V2X-Iデータセットを用いて実験を行い、提案アルゴリズムが車とサイクリストの両方を検知する際の性能を実証した。
論文 参考訳(メタデータ) (2024-10-10T09:37:33Z) - 3DiffTection: 3D Object Detection with Geometry-Aware Diffusion Features [70.50665869806188]
3DiffTectionは、単一の画像から3Dオブジェクトを検出する最先端の方法である。
拡散モデルを微調整し、単一の画像に条件付けされた新しいビュー合成を行う。
さらに、検出監視により、ターゲットデータ上でモデルをトレーニングする。
論文 参考訳(メタデータ) (2023-11-07T23:46:41Z) - AdaptiveShape: Solving Shape Variability for 3D Object Detection with
Geometry Aware Anchor Distributions [1.3807918535446089]
点雲と画像を用いた3次元物体検出は、自律運転のような知覚タスクにおいて重要な役割を果たす。
現在の手法は、標準形状の車両の検出とポーズ推定に優れた性能を示すが、より複雑な形状に欠ける。
この研究は、そのようなクラスのパフォーマンスを改善し、測定するいくつかの新しい方法を紹介します。
論文 参考訳(メタデータ) (2023-02-28T12:31:31Z) - DETR4D: Direct Multi-View 3D Object Detection with Sparse Attention [50.11672196146829]
サラウンドビュー画像を用いた3次元物体検出は、自動運転にとって必須の課題である。
マルチビュー画像における3次元オブジェクト検出のためのスパースアテンションと直接特徴クエリを探索するトランスフォーマーベースのフレームワークであるDETR4Dを提案する。
論文 参考訳(メタデータ) (2022-12-15T14:18:47Z) - A Simple Baseline for Multi-Camera 3D Object Detection [94.63944826540491]
周囲のカメラで3Dオブジェクトを検出することは、自動運転にとって有望な方向だ。
マルチカメラオブジェクト検出のための簡易ベースラインであるSimMODを提案する。
我々は, nuScenes の3次元オブジェクト検出ベンチマークにおいて, SimMOD の有効性を示す広範囲な実験を行った。
論文 参考訳(メタデータ) (2022-08-22T03:38:01Z) - AutoAlignV2: Deformable Feature Aggregation for Dynamic Multi-Modal 3D
Object Detection [17.526914782562528]
我々はAutoAlign上に構築された高速で強力なマルチモーダル3D検出フレームワークであるAutoAlignV2を提案する。
我々の最良のモデルは、nuScenesテストのリーダーボード上で72.4 NDSに達し、新しい最先端の結果が得られます。
論文 参考訳(メタデータ) (2022-07-21T06:17:23Z) - Weakly Supervised Training of Monocular 3D Object Detectors Using Wide
Baseline Multi-view Traffic Camera Data [19.63193201107591]
交差点における車両の7DoF予測は,道路利用者間の潜在的な衝突を評価する上で重要な課題である。
交通監視カメラ用3次元物体検出装置の微調整を弱教師付きで行う手法を開発した。
提案手法は,自動運転車のデータセット上で最上位のモノクル3Dオブジェクト検出器と同等の精度で車両の7DoFの予測精度を推定する。
論文 参考訳(メタデータ) (2021-10-21T08:26:48Z) - High-level camera-LiDAR fusion for 3D object detection with machine
learning [0.0]
本稿では,自律運転などの応用において重要な3次元物体検出問題に取り組む。
モノクロカメラとLiDARデータを組み合わせた機械学習パイプラインを使用して、動くプラットフォームの周囲の3D空間内の車両を検出する。
本結果は,検証セットに対して効率よく精度の高い推定を行い,全体の精度は87.1%となった。
論文 参考訳(メタデータ) (2021-05-24T01:57:34Z) - PLUME: Efficient 3D Object Detection from Stereo Images [95.31278688164646]
既存の手法では、2つのステップでこの問題に対処する: 第一深度推定を行い、その深さ推定から擬似LiDAR点雲表現を計算し、3次元空間で物体検出を行う。
この2つのタスクを同一のメトリック空間で統一するモデルを提案する。
提案手法は,既存の手法と比較して推定時間を大幅に削減し,挑戦的なKITTIベンチマークの最先端性能を実現する。
論文 参考訳(メタデータ) (2021-01-17T05:11:38Z) - PerMO: Perceiving More at Once from a Single Image for Autonomous
Driving [76.35684439949094]
単一画像から完全テクスチャ化された車両の3次元モデルを検出し,セグメント化し,再構成する新しい手法を提案する。
私たちのアプローチは、ディープラーニングの強みと従来のテクニックの優雅さを組み合わせています。
我々はこれらのアルゴリズムを自律運転システムに統合した。
論文 参考訳(メタデータ) (2020-07-16T05:02:45Z) - Road Curb Detection and Localization with Monocular Forward-view Vehicle
Camera [74.45649274085447]
魚眼レンズを装着した校正単眼カメラを用いて3Dパラメータを推定するロバストな手法を提案する。
我々のアプローチでは、車両が90%以上の精度で、リアルタイムで距離を抑えることができる。
論文 参考訳(メタデータ) (2020-02-28T00:24:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。