論文の概要: Train in Germany, Test in The USA: Making 3D Object Detectors Generalize
- arxiv url: http://arxiv.org/abs/2005.08139v1
- Date: Sun, 17 May 2020 00:56:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-02 05:33:58.815732
- Title: Train in Germany, Test in The USA: Making 3D Object Detectors Generalize
- Title(参考訳): ドイツの列車、米国でのテスト:3d物体探知機を一般化
- Authors: Yan Wang, Xiangyu Chen, Yurong You, Li Erran, Bharath Hariharan, Mark
Campbell, Kilian Q. Weinberger, Wei-Lun Chao
- Abstract要約: ディープラーニングにより、LiDARやステレオカメラデータなどの3Dオブジェクト検出精度が大幅に向上した。
自動運転のためのほとんどのデータセットは、1つの国内の都市の狭い部分で収集される。
本稿では,あるデータセットから別のデータセットに3Dオブジェクト検出器を適応させる作業について考察する。
- 参考スコア(独自算出の注目度): 59.455225176042404
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: In the domain of autonomous driving, deep learning has substantially improved
the 3D object detection accuracy for LiDAR and stereo camera data alike. While
deep networks are great at generalization, they are also notorious to over-fit
to all kinds of spurious artifacts, such as brightness, car sizes and models,
that may appear consistently throughout the data. In fact, most datasets for
autonomous driving are collected within a narrow subset of cities within one
country, typically under similar weather conditions. In this paper we consider
the task of adapting 3D object detectors from one dataset to another. We
observe that naively, this appears to be a very challenging task, resulting in
drastic drops in accuracy levels. We provide extensive experiments to
investigate the true adaptation challenges and arrive at a surprising
conclusion: the primary adaptation hurdle to overcome are differences in car
sizes across geographic areas. A simple correction based on the average car
size yields a strong correction of the adaptation gap. Our proposed method is
simple and easily incorporated into most 3D object detection frameworks. It
provides a first baseline for 3D object detection adaptation across countries,
and gives hope that the underlying problem may be more within grasp than one
may have hoped to believe. Our code is available at
https://github.com/cxy1997/3D_adapt_auto_driving.
- Abstract(参考訳): 自動運転の分野では、ディープラーニングはLiDARやステレオカメラデータの3Dオブジェクト検出精度を大幅に向上させた。
ディープネットワークは一般化に優れていますが、明るさ、車のサイズ、モデルなど、データ全体を通して一貫して現れるあらゆる種類の刺激的なアーティファクトに適していることでも知られています。
実際、自動運転のためのほとんどのデータセットは、通常同様の気象条件下で、1つの国の都市の狭い部分で収集される。
本稿では,あるデータセットから別のデータセットへ3次元物体検出器を適用する作業について検討する。
これは非常に難しい作業であり、結果として正確度が大幅に低下するのである。
我々は、真の適応課題を調査する広範囲な実験を行い、驚くべき結論に達した: 克服すべき主な適応ハードルは、地理的領域における車のサイズの違いである。
平均車の大きさに基づく単純な補正は、適応ギャップの強い補正をもたらす。
提案手法はほとんどの3次元オブジェクト検出フレームワークに簡単に組み込むことができる。
これは、各国にまたがる3dオブジェクト検出適応のための最初のベースラインを提供し、基盤となる問題は、期待していたよりも把握範囲内にあることを期待している。
私たちのコードはhttps://github.com/cxy1997/3d_adapt_auto_drivingで利用可能です。
関連論文リスト
- HeightFormer: A Semantic Alignment Monocular 3D Object Detection Method from Roadside Perspective [11.841338298700421]
本研究では,空間的前駆体とVoxel Pooling formerを統合した3次元物体検出フレームワークを提案する。
Rope3DとDAIR-V2X-Iデータセットを用いて実験を行い、提案アルゴリズムが車とサイクリストの両方を検知する際の性能を実証した。
論文 参考訳(メタデータ) (2024-10-10T09:37:33Z) - UADA3D: Unsupervised Adversarial Domain Adaptation for 3D Object Detection with Sparse LiDAR and Large Domain Gaps [2.79552147676281]
3次元物体検出(UADA3D)のための教師なし反転領域適応法について紹介する。
様々な適応シナリオにおいて有効性を示し、自動運転車と移動ロボットの両方の領域で顕著に改善されていることを示す。
私たちのコードはオープンソースで、まもなく利用可能になります。
論文 参考訳(メタデータ) (2024-03-26T12:08:14Z) - Unsupervised Adaptation from Repeated Traversals for Autonomous Driving [54.59577283226982]
自動運転車はエンドユーザー環境に一般化し、確実に動作させなければならない。
潜在的な解決策の1つは、エンドユーザの環境から収集されたラベルのないデータを活用することである。
適応過程を監督する信頼性のある信号はターゲット領域に存在しない。
この単純な仮定は、ターゲット領域上の3次元物体検出器の反復的自己学習を可能にする強力な信号を得るのに十分であることを示す。
論文 参考訳(メタデータ) (2023-03-27T15:07:55Z) - Generalized Few-Shot 3D Object Detection of LiDAR Point Cloud for
Autonomous Driving [91.39625612027386]
我々は,一般的な(ベース)オブジェクトに対して大量のトレーニングデータを持つが,レア(ノーベル)クラスに対してはごく少数のデータしか持たない,一般化された数発の3Dオブジェクト検出という新しいタスクを提案する。
具体的には、画像と点雲の奥行きの違いを分析し、3D LiDARデータセットにおける少数ショット設定の実践的原理を示す。
この課題を解決するために,既存の3次元検出モデルを拡張し,一般的なオブジェクトと稀なオブジェクトの両方を認識するためのインクリメンタルな微調整手法を提案する。
論文 参考訳(メタデータ) (2023-02-08T07:11:36Z) - Embracing Single Stride 3D Object Detector with Sparse Transformer [63.179720817019096]
自律走行のためのLiDARを用いた3次元物体検出では、物体サイズと入力シーンサイズとの比が2次元検出の場合に比べて有意に小さい。
多くの3D検出器は2D検出器の一般的な慣習に従っており、点雲の定量化後も特徴マップを分解する。
本稿では,SST(Single-stride Sparse Transformer)を提案する。
論文 参考訳(メタデータ) (2021-12-13T02:12:02Z) - Weakly Supervised Training of Monocular 3D Object Detectors Using Wide
Baseline Multi-view Traffic Camera Data [19.63193201107591]
交差点における車両の7DoF予測は,道路利用者間の潜在的な衝突を評価する上で重要な課題である。
交通監視カメラ用3次元物体検出装置の微調整を弱教師付きで行う手法を開発した。
提案手法は,自動運転車のデータセット上で最上位のモノクル3Dオブジェクト検出器と同等の精度で車両の7DoFの予測精度を推定する。
論文 参考訳(メタデータ) (2021-10-21T08:26:48Z) - Progressive Coordinate Transforms for Monocular 3D Object Detection [52.00071336733109]
本稿では,学習座標表現を容易にするために,PCT(Em Progressive Coordinate Transforms)と呼ばれる,新しい軽量なアプローチを提案する。
本稿では,学習座標表現を容易にするために,PCT(Em Progressive Coordinate Transforms)と呼ばれる,新しい軽量なアプローチを提案する。
論文 参考訳(メタデータ) (2021-08-12T15:22:33Z) - Delving into Localization Errors for Monocular 3D Object Detection [85.77319416168362]
単眼画像から3Dバウンディングボックスを推定することは、自動運転に不可欠な要素です。
本研究では, 各サブタスクがもたらす影響を定量化し, 局所化誤差を求めることが, モノクロ3次元検出の抑制に欠かせない要因である。
論文 参考訳(メタデータ) (2021-03-30T10:38:01Z) - Learning to Predict the 3D Layout of a Scene [0.3867363075280544]
本稿では,単一のRGB画像のみを使用する手法を提案し,LiDARセンサを持たないデバイスや車両に適用できるようにする。
KITTIデータセットは,クラスラベル付き道路交通シーン,2D境界ボックス,自由度7自由度3Dアノテーションで構成される。
我々は、公式のKITTIベンチマークで要求されるように、結合閾値70%の3次元交差で測定された適度に困難なデータに対して平均47.3%の平均精度を達成し、従来の最先端のRGBのみの手法よりも大きなマージンで上回った。
論文 参考訳(メタデータ) (2020-11-19T17:23:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。