論文の概要: What My Motion tells me about Your Pose: A Self-Supervised Monocular 3D
Vehicle Detector
- arxiv url: http://arxiv.org/abs/2007.14812v2
- Date: Wed, 24 Mar 2021 18:11:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-05 20:27:03.565200
- Title: What My Motion tells me about Your Pose: A Self-Supervised Monocular 3D
Vehicle Detector
- Title(参考訳): 私の動きからわかるあなたのポーズ - 自己監視型単眼3d車両検出器
- Authors: C\'edric Picron, Punarjay Chakravarty, Tom Roussel, Tinne Tuytelaars
- Abstract要約: 参照領域上で事前学習した方向推定モデルにおいて,単眼視計測を用いた自己教師型微調整を行った。
その後、自己監督車両配向推定器上に構築された最適化に基づく単分子式3次元境界箱検出器を実演した。
- 参考スコア(独自算出の注目度): 41.12124329933595
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The estimation of the orientation of an observed vehicle relative to an
Autonomous Vehicle (AV) from monocular camera data is an important building
block in estimating its 6 DoF pose. Current Deep Learning based solutions for
placing a 3D bounding box around this observed vehicle are data hungry and do
not generalize well. In this paper, we demonstrate the use of monocular visual
odometry for the self-supervised fine-tuning of a model for orientation
estimation pre-trained on a reference domain. Specifically, while transitioning
from a virtual dataset (vKITTI) to nuScenes, we recover up to 70% of the
performance of a fully supervised method. We subsequently demonstrate an
optimization-based monocular 3D bounding box detector built on top of the
self-supervised vehicle orientation estimator without the requirement of
expensive labeled data. This allows 3D vehicle detection algorithms to be
self-trained from large amounts of monocular camera data from existing
commercial vehicle fleets.
- Abstract(参考訳): 単眼カメラデータから、自律走行車(AV)に対する観測車両の向きを推定することは、6DoFのポーズを推定する上で重要なビルディングブロックである。
現在のディープラーニングに基づく、この観測車両に3dバウンディングボックスを置くソリューションは、データに飢えており、うまく一般化していない。
本稿では,参照領域上で事前学習した配向推定のためのモデルの自己教師型微調整にモノクロビジュアル・オドメトリーを用いることを実証する。
具体的には、仮想データセット(vKITTI)からnuScenesへの移行中に、完全に教師付きされたメソッドのパフォーマンスの最大70%を回復する。
次に,自己教師付車方向推定装置上に,高価なラベル付きデータを必要としない最適化型単眼型3dバウンディングボックス検出器を実演する。
これにより、既存の商用車両の大量のモノクロカメラデータから3D車両検出アルゴリズムを自己学習することができる。
関連論文リスト
- View-to-Label: Multi-View Consistency for Self-Supervised 3D Object
Detection [46.077668660248534]
本稿では,RGBシーケンスのみから,自己監督型3Dオブジェクト検出を行う手法を提案する。
KITTI 3Dデータセットを用いた実験では,最先端の自己管理手法と同等の性能を示した。
論文 参考訳(メタデータ) (2023-05-29T09:30:39Z) - BEV-MAE: Bird's Eye View Masked Autoencoders for Point Cloud
Pre-training in Autonomous Driving Scenarios [51.285561119993105]
自律運転におけるLiDARに基づく3Dオブジェクト検出のための,効率的なマスク付きオートエンコーダ事前学習フレームワークであるBEV-MAEを提案する。
具体的には、3Dエンコーダ学習特徴表現を導くために,鳥の目視(BEV)誘導マスキング戦略を提案する。
学習可能なポイントトークンを導入し、3Dエンコーダの一貫性のある受容的フィールドサイズを維持する。
論文 参考訳(メタデータ) (2022-12-12T08:15:03Z) - Weakly Supervised Training of Monocular 3D Object Detectors Using Wide
Baseline Multi-view Traffic Camera Data [19.63193201107591]
交差点における車両の7DoF予測は,道路利用者間の潜在的な衝突を評価する上で重要な課題である。
交通監視カメラ用3次元物体検出装置の微調整を弱教師付きで行う手法を開発した。
提案手法は,自動運転車のデータセット上で最上位のモノクル3Dオブジェクト検出器と同等の精度で車両の7DoFの予測精度を推定する。
論文 参考訳(メタデータ) (2021-10-21T08:26:48Z) - One Million Scenes for Autonomous Driving: ONCE Dataset [91.94189514073354]
自律運転シナリオにおける3次元物体検出のためのONCEデータセットを提案する。
データは、利用可能な最大の3D自動運転データセットよりも20倍長い144時間の運転時間から選択される。
我々はONCEデータセット上で、様々な自己教師的・半教師的手法を再現し、評価する。
論文 参考訳(メタデータ) (2021-06-21T12:28:08Z) - High-level camera-LiDAR fusion for 3D object detection with machine
learning [0.0]
本稿では,自律運転などの応用において重要な3次元物体検出問題に取り組む。
モノクロカメラとLiDARデータを組み合わせた機械学習パイプラインを使用して、動くプラットフォームの周囲の3D空間内の車両を検出する。
本結果は,検証セットに対して効率よく精度の高い推定を行い,全体の精度は87.1%となった。
論文 参考訳(メタデータ) (2021-05-24T01:57:34Z) - Monocular 3D Vehicle Detection Using Uncalibrated Traffic Cameras
through Homography [12.062095895630563]
本稿では,1台の交通カメラから3次元世界における車両の位置とポーズを抽出する手法を提案する。
道路平面と画像平面の相同性が3D車両の検出に不可欠であることを観察する。
本稿では,BEV画像の歪み検出精度を高めるためのtextittailedr-box と textitdual-view Network アーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-03-29T02:57:37Z) - Fine-Grained Vehicle Perception via 3D Part-Guided Visual Data
Augmentation [77.60050239225086]
実画像中の車両に動的部品を付加した3次元自動車モデルによる効果的なトレーニングデータ生成プロセスを提案する。
私達のアプローチは人間の相互作用なしで完全に自動です。
VUS解析用マルチタスクネットワークとVHI解析用マルチストリームネットワークを提案する。
論文 参考訳(メタデータ) (2020-12-15T03:03:38Z) - PerMO: Perceiving More at Once from a Single Image for Autonomous
Driving [76.35684439949094]
単一画像から完全テクスチャ化された車両の3次元モデルを検出し,セグメント化し,再構成する新しい手法を提案する。
私たちのアプローチは、ディープラーニングの強みと従来のテクニックの優雅さを組み合わせています。
我々はこれらのアルゴリズムを自律運転システムに統合した。
論文 参考訳(メタデータ) (2020-07-16T05:02:45Z) - Road Curb Detection and Localization with Monocular Forward-view Vehicle
Camera [74.45649274085447]
魚眼レンズを装着した校正単眼カメラを用いて3Dパラメータを推定するロバストな手法を提案する。
我々のアプローチでは、車両が90%以上の精度で、リアルタイムで距離を抑えることができる。
論文 参考訳(メタデータ) (2020-02-28T00:24:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。