論文の概要: Weakly Supervised Training of Monocular 3D Object Detectors Using Wide
Baseline Multi-view Traffic Camera Data
- arxiv url: http://arxiv.org/abs/2110.10966v1
- Date: Thu, 21 Oct 2021 08:26:48 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-23 07:21:51.834769
- Title: Weakly Supervised Training of Monocular 3D Object Detectors Using Wide
Baseline Multi-view Traffic Camera Data
- Title(参考訳): 広ベースラインマルチビュートラヒックカメラデータを用いた単眼3次元物体検出器の弱い教師付き訓練
- Authors: Matthew Howe, Ian Reid, Jamie Mackenzie
- Abstract要約: 交差点における車両の7DoF予測は,道路利用者間の潜在的な衝突を評価する上で重要な課題である。
交通監視カメラ用3次元物体検出装置の微調整を弱教師付きで行う手法を開発した。
提案手法は,自動運転車のデータセット上で最上位のモノクル3Dオブジェクト検出器と同等の精度で車両の7DoFの予測精度を推定する。
- 参考スコア(独自算出の注目度): 19.63193201107591
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Accurate 7DoF prediction of vehicles at an intersection is an important task
for assessing potential conflicts between road users. In principle, this could
be achieved by a single camera system that is capable of detecting the pose of
each vehicle but this would require a large, accurately labelled dataset from
which to train the detector. Although large vehicle pose datasets exist
(ostensibly developed for autonomous vehicles), we find training on these
datasets inadequate. These datasets contain images from a ground level
viewpoint, whereas an ideal view for intersection observation would be elevated
higher above the road surface. We develop an alternative approach using a
weakly supervised method of fine tuning 3D object detectors for traffic
observation cameras; showing in the process that large existing autonomous
vehicle datasets can be leveraged for pre-training. To fine-tune the monocular
3D object detector, our method utilises multiple 2D detections from
overlapping, wide-baseline views and a loss that encodes the subjacent
geometric consistency. Our method achieves vehicle 7DoF pose prediction
accuracy on our dataset comparable to the top performing monocular 3D object
detectors on autonomous vehicle datasets. We present our training methodology,
multi-view reprojection loss, and dataset.
- Abstract(参考訳): 交差点における車両の正確な7DoF予測は,道路利用者間の潜在的な衝突を評価する上で重要な課題である。
原則としてこれは、各車両の姿勢を検知できる単一のカメラシステムによって達成できるが、検出器を訓練するには、大きく正確にラベル付けされたデータセットが必要となる。
大型車両のポーズデータセットは存在するが、これらのデータセットのトレーニングは不十分である。
これらのデータセットは、地上からの画像を含むが、交差観測の理想的な視点は、道路表面よりも高い位置にある。
本研究では,交通観測用カメラの3次元物体検出器を微調整する弱教師法を用いて,既存の大規模自動運転車データセットを事前学習に活用できる方法を提案する。
モノクル3Dオブジェクト検出器を微調整するには,重なり合う広線ビューと,そのサブジャセントな幾何学的整合性を符号化した損失から,複数の2D検出を利用する。
提案手法は,自動運転車のデータセット上で最上位のモノクル3Dオブジェクト検出器と同等の精度で車両の7DoFが予測される。
我々は、トレーニング方法論、マルチビューのリプロジェクション損失、データセットを提案する。
関連論文リスト
- HeightFormer: A Semantic Alignment Monocular 3D Object Detection Method from Roadside Perspective [11.841338298700421]
本研究では,空間的前駆体とVoxel Pooling formerを統合した3次元物体検出フレームワークを提案する。
Rope3DとDAIR-V2X-Iデータセットを用いて実験を行い、提案アルゴリズムが車とサイクリストの両方を検知する際の性能を実証した。
論文 参考訳(メタデータ) (2024-10-10T09:37:33Z) - An Efficient Wide-Range Pseudo-3D Vehicle Detection Using A Single
Camera [10.573423265001706]
本稿では,1台のカメラからの画像に基づく広帯域Pseudo-3D車両検出手法を提案する。
擬似3次元物体を検出するために,本モデルは特別に設計された検出ヘッドを採用する。
オブジェクトボックスとSPLを併用した共同制約損失はモデルトレーニング時に設計され、モデルの効率、安定性、予測精度が向上する。
論文 参考訳(メタデータ) (2023-09-15T12:50:09Z) - 3D Data Augmentation for Driving Scenes on Camera [50.41413053812315]
本稿では,Drive-3DAugと呼ばれる3次元データ拡張手法を提案する。
まずNeural Radiance Field(NeRF)を用いて,背景および前景の3次元モデルの再構成を行う。
そして、予め定義された背景の有効領域に適応した位置と向きの3Dオブジェクトを配置することにより、拡張駆動シーンを得ることができる。
論文 参考訳(メタデータ) (2023-03-18T05:51:05Z) - Generalized Few-Shot 3D Object Detection of LiDAR Point Cloud for
Autonomous Driving [91.39625612027386]
我々は,一般的な(ベース)オブジェクトに対して大量のトレーニングデータを持つが,レア(ノーベル)クラスに対してはごく少数のデータしか持たない,一般化された数発の3Dオブジェクト検出という新しいタスクを提案する。
具体的には、画像と点雲の奥行きの違いを分析し、3D LiDARデータセットにおける少数ショット設定の実践的原理を示す。
この課題を解決するために,既存の3次元検出モデルを拡張し,一般的なオブジェクトと稀なオブジェクトの両方を認識するためのインクリメンタルな微調整手法を提案する。
論文 参考訳(メタデータ) (2023-02-08T07:11:36Z) - Benchmarking the Robustness of LiDAR-Camera Fusion for 3D Object
Detection [58.81316192862618]
自律運転における3D知覚のための2つの重要なセンサーは、カメラとLiDARである。
これら2つのモダリティを融合させることで、3次元知覚モデルの性能を大幅に向上させることができる。
我々は、最先端の核融合法を初めてベンチマークした。
論文 参考訳(メタデータ) (2022-05-30T09:35:37Z) - One Million Scenes for Autonomous Driving: ONCE Dataset [91.94189514073354]
自律運転シナリオにおける3次元物体検出のためのONCEデータセットを提案する。
データは、利用可能な最大の3D自動運転データセットよりも20倍長い144時間の運転時間から選択される。
我々はONCEデータセット上で、様々な自己教師的・半教師的手法を再現し、評価する。
論文 参考訳(メタデータ) (2021-06-21T12:28:08Z) - High-level camera-LiDAR fusion for 3D object detection with machine
learning [0.0]
本稿では,自律運転などの応用において重要な3次元物体検出問題に取り組む。
モノクロカメラとLiDARデータを組み合わせた機械学習パイプラインを使用して、動くプラットフォームの周囲の3D空間内の車両を検出する。
本結果は,検証セットに対して効率よく精度の高い推定を行い,全体の精度は87.1%となった。
論文 参考訳(メタデータ) (2021-05-24T01:57:34Z) - Monocular 3D Vehicle Detection Using Uncalibrated Traffic Cameras
through Homography [12.062095895630563]
本稿では,1台の交通カメラから3次元世界における車両の位置とポーズを抽出する手法を提案する。
道路平面と画像平面の相同性が3D車両の検出に不可欠であることを観察する。
本稿では,BEV画像の歪み検出精度を高めるためのtextittailedr-box と textitdual-view Network アーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-03-29T02:57:37Z) - Monocular Quasi-Dense 3D Object Tracking [99.51683944057191]
周囲の物体の将来の位置を予測し、自律運転などの多くのアプリケーションで観測者の行動を計画するためには、信頼性と正確な3D追跡フレームワークが不可欠である。
移動プラットフォーム上で撮影された2次元画像のシーケンスから,移動物体を時間とともに効果的に関連付け,その全3次元バウンディングボックス情報を推定するフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-12T15:30:02Z) - Fine-Grained Vehicle Perception via 3D Part-Guided Visual Data
Augmentation [77.60050239225086]
実画像中の車両に動的部品を付加した3次元自動車モデルによる効果的なトレーニングデータ生成プロセスを提案する。
私達のアプローチは人間の相互作用なしで完全に自動です。
VUS解析用マルチタスクネットワークとVHI解析用マルチストリームネットワークを提案する。
論文 参考訳(メタデータ) (2020-12-15T03:03:38Z) - What My Motion tells me about Your Pose: A Self-Supervised Monocular 3D
Vehicle Detector [41.12124329933595]
参照領域上で事前学習した方向推定モデルにおいて,単眼視計測を用いた自己教師型微調整を行った。
その後、自己監督車両配向推定器上に構築された最適化に基づく単分子式3次元境界箱検出器を実演した。
論文 参考訳(メタデータ) (2020-07-29T12:58:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。