論文の概要: AdaptiveShape: Solving Shape Variability for 3D Object Detection with
Geometry Aware Anchor Distributions
- arxiv url: http://arxiv.org/abs/2302.14522v1
- Date: Tue, 28 Feb 2023 12:31:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-01 16:45:26.249656
- Title: AdaptiveShape: Solving Shape Variability for 3D Object Detection with
Geometry Aware Anchor Distributions
- Title(参考訳): AdaptiveShape:幾何学的アンカー分布を考慮した3次元物体検出のための形状変数の解法
- Authors: Benjamin Sick, Michael Walter, Jochen Abhau
- Abstract要約: 点雲と画像を用いた3次元物体検出は、自律運転のような知覚タスクにおいて重要な役割を果たす。
現在の手法は、標準形状の車両の検出とポーズ推定に優れた性能を示すが、より複雑な形状に欠ける。
この研究は、そのようなクラスのパフォーマンスを改善し、測定するいくつかの新しい方法を紹介します。
- 参考スコア(独自算出の注目度): 1.3807918535446089
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D object detection with point clouds and images plays an important role in
perception tasks such as autonomous driving. Current methods show great
performance on detection and pose estimation of standard-shaped vehicles but
lack behind on more complex shapes as e.g. semi-trailer truck combinations.
Determining the shape and motion of those special vehicles accurately is
crucial in yard operation and maneuvering and industrial automation
applications. This work introduces several new methods to improve and measure
the performance for such classes. State-of-the-art methods are based on
predefined anchor grids or heatmaps for ground truth targets. However, the
underlying representations do not take the shape of different sized objects
into account. Our main contribution, AdaptiveShape, uses shape aware anchor
distributions and heatmaps to improve the detection capabilities. For large
vehicles we achieve +10.9% AP in comparison to current shape agnostic methods.
Furthermore we introduce a new fast LiDAR-camera fusion. It is based on 2D
bounding box camera detections which are available in many processing
pipelines. This fusion method does not rely on perfectly calibrated or
temporally synchronized systems and is therefore applicable to a broad range of
robotic applications. We extend a standard point pillar network to account for
temporal data and improve learning of complex object movements. In addition we
extended a ground truth augmentation to use grouped object pairs to further
improve truck AP by +2.2% compared to conventional augmentation.
- Abstract(参考訳): 点群と画像を用いた3次元物体検出は、自動運転などの知覚タスクにおいて重要な役割を果たす。
現在の方法は、標準形車両の検出と姿勢推定において優れた性能を示すが、セミトレーラートラックの組み合わせのようなより複雑な形状に欠ける。
これらの特殊車両の形状と動きを正確に決定することは、ヤード操作や操縦、産業自動化の応用において不可欠である。
この研究は、そのようなクラスのパフォーマンスを改善し、測定するいくつかの新しい方法を紹介します。
State-of-the-artメソッドは、既定のアンカーグリッドや、地上真実のターゲットのヒートマップに基づいている。
しかし、基礎となる表現は異なる大きさの物体の形を考慮に入れていない。
当社の主な貢献であるadaptiveshapeは、形状認識アンカー分布とヒートマップを使用して検出能力を高めています。
大型車両では、現在の形状に依存しない方法と比較して+10.9%APを達成する。
さらに,新しい高速LiDARカメラ融合を導入する。
これは、多くの処理パイプラインで利用可能な2Dバウンディングボックスカメラ検出に基づいている。
この融合法は、完全に校正または時間的に同期されたシステムに依存しないので、幅広いロボット応用に適用できる。
時間的データを考慮した標準的なポイントピラーネットワークを拡張し,複雑な物体の動きの学習を改善する。
さらに,本研究では,従来の増量法に比べて,トラックAPを+2.2%向上させるため,グループ化されたオブジェクトペアを使用するための基礎的真理増倍法を拡張した。
関連論文リスト
- An Efficient Wide-Range Pseudo-3D Vehicle Detection Using A Single
Camera [10.573423265001706]
本稿では,1台のカメラからの画像に基づく広帯域Pseudo-3D車両検出手法を提案する。
擬似3次元物体を検出するために,本モデルは特別に設計された検出ヘッドを採用する。
オブジェクトボックスとSPLを併用した共同制約損失はモデルトレーニング時に設計され、モデルの効率、安定性、予測精度が向上する。
論文 参考訳(メタデータ) (2023-09-15T12:50:09Z) - Geometric-aware Pretraining for Vision-centric 3D Object Detection [77.7979088689944]
GAPretrainと呼ばれる新しい幾何学的事前学習フレームワークを提案する。
GAPretrainは、複数の最先端検出器に柔軟に適用可能なプラグアンドプレイソリューションとして機能する。
BEVFormer法を用いて, nuScenes val の 46.2 mAP と 55.5 NDS を実現し, それぞれ 2.7 と 2.1 点を得た。
論文 参考訳(メタデータ) (2023-04-06T14:33:05Z) - AutoAlignV2: Deformable Feature Aggregation for Dynamic Multi-Modal 3D
Object Detection [17.526914782562528]
我々はAutoAlign上に構築された高速で強力なマルチモーダル3D検出フレームワークであるAutoAlignV2を提案する。
我々の最良のモデルは、nuScenesテストのリーダーボード上で72.4 NDSに達し、新しい最先端の結果が得られます。
論文 参考訳(メタデータ) (2022-07-21T06:17:23Z) - Benchmarking the Robustness of LiDAR-Camera Fusion for 3D Object
Detection [58.81316192862618]
自律運転における3D知覚のための2つの重要なセンサーは、カメラとLiDARである。
これら2つのモダリティを融合させることで、3次元知覚モデルの性能を大幅に向上させることができる。
我々は、最先端の核融合法を初めてベンチマークした。
論文 参考訳(メタデータ) (2022-05-30T09:35:37Z) - PillarGrid: Deep Learning-based Cooperative Perception for 3D Object
Detection from Onboard-Roadside LiDAR [15.195933965761645]
我々は,複数の3次元LiDARからの情報を融合した新しい協調認識手法であるtextitPillarGridを提案する。
PillarGrid は,1) 点雲の協調前処理,2) 軸方向のボキセル化と特徴抽出,3) 複数のセンサからの特徴のグリッド方向の深層融合,4) 畳み込みニューラルネットワーク(CNN) に基づく3Dオブジェクト検出である。
広汎な実験により、PillarGridはSOTA単一LiDARに基づく3Dオブジェクト検出法よりも精度と範囲を大きなマージンで上回ることがわかった。
論文 参考訳(メタデータ) (2022-03-12T02:28:41Z) - CFTrack: Center-based Radar and Camera Fusion for 3D Multi-Object
Tracking [9.62721286522053]
本稿では,レーダとカメラセンサの融合に基づく共同物体検出と追跡のためのエンドツーエンドネットワークを提案する。
提案手法では,物体検出に中心型レーダカメラ融合アルゴリズムを用い,物体関連にグリーディアルゴリズムを用いる。
提案手法は,20.0AMOTAを達成し,ベンチマークにおける視覚ベースの3Dトラッキング手法よりも優れる,挑戦的なnuScenesデータセット上で評価する。
論文 参考訳(メタデータ) (2021-07-11T23:56:53Z) - High-level camera-LiDAR fusion for 3D object detection with machine
learning [0.0]
本稿では,自律運転などの応用において重要な3次元物体検出問題に取り組む。
モノクロカメラとLiDARデータを組み合わせた機械学習パイプラインを使用して、動くプラットフォームの周囲の3D空間内の車両を検出する。
本結果は,検証セットに対して効率よく精度の高い推定を行い,全体の精度は87.1%となった。
論文 参考訳(メタデータ) (2021-05-24T01:57:34Z) - Multi-Modal Fusion Transformer for End-to-End Autonomous Driving [59.60483620730437]
画像表現とLiDAR表現を注目で統合する,新しいマルチモードフュージョントランスフォーマであるTransFuserを提案する。
本手法は, 衝突を76%低減しつつ, 最先端駆動性能を実現する。
論文 参考訳(メタデータ) (2021-04-19T11:48:13Z) - PLUME: Efficient 3D Object Detection from Stereo Images [95.31278688164646]
既存の手法では、2つのステップでこの問題に対処する: 第一深度推定を行い、その深さ推定から擬似LiDAR点雲表現を計算し、3次元空間で物体検出を行う。
この2つのタスクを同一のメトリック空間で統一するモデルを提案する。
提案手法は,既存の手法と比較して推定時間を大幅に削減し,挑戦的なKITTIベンチマークの最先端性能を実現する。
論文 参考訳(メタデータ) (2021-01-17T05:11:38Z) - PerMO: Perceiving More at Once from a Single Image for Autonomous
Driving [76.35684439949094]
単一画像から完全テクスチャ化された車両の3次元モデルを検出し,セグメント化し,再構成する新しい手法を提案する。
私たちのアプローチは、ディープラーニングの強みと従来のテクニックの優雅さを組み合わせています。
我々はこれらのアルゴリズムを自律運転システムに統合した。
論文 参考訳(メタデータ) (2020-07-16T05:02:45Z) - Road Curb Detection and Localization with Monocular Forward-view Vehicle
Camera [74.45649274085447]
魚眼レンズを装着した校正単眼カメラを用いて3Dパラメータを推定するロバストな手法を提案する。
我々のアプローチでは、車両が90%以上の精度で、リアルタイムで距離を抑えることができる。
論文 参考訳(メタデータ) (2020-02-28T00:24:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。