論文の概要: Monocular 3D Vehicle Detection Using Uncalibrated Traffic Cameras
through Homography
- arxiv url: http://arxiv.org/abs/2103.15293v1
- Date: Mon, 29 Mar 2021 02:57:37 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-31 05:42:04.499536
- Title: Monocular 3D Vehicle Detection Using Uncalibrated Traffic Cameras
through Homography
- Title(参考訳): ホログラフィーによる非校正交通カメラによる単眼3次元車両検出
- Authors: Minghan Zhu, Songan Zhang, Yuanxin Zhong, Pingping Lu, Huei Peng and
John Lenneman
- Abstract要約: 本稿では,1台の交通カメラから3次元世界における車両の位置とポーズを抽出する手法を提案する。
道路平面と画像平面の相同性が3D車両の検出に不可欠であることを観察する。
本稿では,BEV画像の歪み検出精度を高めるためのtextittailedr-box と textitdual-view Network アーキテクチャを提案する。
- 参考スコア(独自算出の注目度): 12.062095895630563
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper proposes a method to extract the position and pose of vehicles in
the 3D world from a single traffic camera. Most previous monocular 3D vehicle
detection algorithms focused on cameras on vehicles from the perspective of a
driver, and assumed known intrinsic and extrinsic calibration. On the contrary,
this paper focuses on the same task using uncalibrated monocular traffic
cameras. We observe that the homography between the road plane and the image
plane is essential to 3D vehicle detection and the data synthesis for this
task, and the homography can be estimated without the camera intrinsics and
extrinsics. We conduct 3D vehicle detection by estimating the rotated bounding
boxes (r-boxes) in the bird's eye view (BEV) images generated from inverse
perspective mapping. We propose a new regression target called
\textit{tailed~r-box} and a \textit{dual-view} network architecture which
boosts the detection accuracy on warped BEV images. Experiments show that the
proposed method can generalize to new camera and environment setups despite not
seeing imaged from them during training.
- Abstract(参考訳): 本論文では,1台のトラヒックカメラから3次元空間における車両の位置と姿勢を抽出する手法を提案する。
これまでのモノラルな3D車両検出アルゴリズムは、ドライバーの視点から車両のカメラに焦点を合わせ、本質的および外生的なキャリブレーションを仮定していた。
反対に,本論文では,非対応単眼トラヒックカメラを用いて同じ課題に注目する。
本研究では,道路面と画像面のホモグラフィーが3次元車両検出とデータ合成に不可欠であることを観察し,カメラの内在性や外在性を持たずにホモグラフィーを推定できることを示した。
我々は,鳥の視線(BEV)画像中の回転する有界箱(rボックス)を逆視点マッピングから推定して3次元車両検出を行う。
本稿では,新しい回帰ターゲットである「textit{tailed~r-box}」と「textit{dual-view}」ネットワークアーキテクチャを提案する。
実験の結果,提案手法はトレーニング中に画像が見えない場合でも,新しいカメラや環境設定に一般化可能であることがわかった。
関連論文リスト
- Towards Generalizable Multi-Camera 3D Object Detection via Perspective
Debiasing [28.874014617259935]
マルチカメラ3Dオブジェクト検出(MC3D-Det)は,鳥眼ビュー(BEV)の出現によって注目されている。
本研究では,3次元検出と2次元カメラ平面との整合性を両立させ,一貫した高精度な検出を実現する手法を提案する。
論文 参考訳(メタデータ) (2023-10-17T15:31:28Z) - 3D Data Augmentation for Driving Scenes on Camera [50.41413053812315]
本稿では,Drive-3DAugと呼ばれる3次元データ拡張手法を提案する。
まずNeural Radiance Field(NeRF)を用いて,背景および前景の3次元モデルの再構成を行う。
そして、予め定義された背景の有効領域に適応した位置と向きの3Dオブジェクトを配置することにより、拡張駆動シーンを得ることができる。
論文 参考訳(メタデータ) (2023-03-18T05:51:05Z) - OA-BEV: Bringing Object Awareness to Bird's-Eye-View Representation for
Multi-Camera 3D Object Detection [78.38062015443195]
OA-BEVは、BEVベースの3Dオブジェクト検出フレームワークにプラグインできるネットワークである。
提案手法は,BEV ベースラインに対する平均精度と nuScenes 検出スコアの両面で一貫した改善を実現する。
論文 参考訳(メタデータ) (2023-01-13T06:02:31Z) - ONCE-3DLanes: Building Monocular 3D Lane Detection [41.46466150783367]
OnCE-3DLanesは3次元空間にレーンレイアウトアノテーションを付加した実世界の自律走行データセットである。
点雲と画像ピクセルとの明確な関係を利用して、データセットのアノテーションパイプラインは、高品質な3Dレーンの位置を自動的に生成するように設計されている。
論文 参考訳(メタデータ) (2022-04-30T16:35:25Z) - Image-to-Lidar Self-Supervised Distillation for Autonomous Driving Data [80.14669385741202]
本稿では,自律運転データに適した3次元知覚モデルのための自己教師付き事前学習手法を提案する。
我々は、自動走行装置における同期・校正画像とLidarセンサーの可用性を活用している。
私たちのメソッドは、ポイントクラウドや画像アノテーションを一切必要としません。
論文 参考訳(メタデータ) (2022-03-30T12:40:30Z) - Rope3D: TheRoadside Perception Dataset for Autonomous Driving and
Monocular 3D Object Detection Task [48.555440807415664]
道路沿いの知覚3Dデータセットに挑戦する最初のハイダイバーシティを提示する。
データセットは50Kイメージと、さまざまなシーンで1.5M以上の3Dオブジェクトで構成されている。
本稿では,様々なセンサや視点によって引き起こされるあいまいさを解決するために,幾何学的制約を活用することを提案する。
論文 参考訳(メタデータ) (2022-03-25T12:13:23Z) - Weakly Supervised Training of Monocular 3D Object Detectors Using Wide
Baseline Multi-view Traffic Camera Data [19.63193201107591]
交差点における車両の7DoF予測は,道路利用者間の潜在的な衝突を評価する上で重要な課題である。
交通監視カメラ用3次元物体検出装置の微調整を弱教師付きで行う手法を開発した。
提案手法は,自動運転車のデータセット上で最上位のモノクル3Dオブジェクト検出器と同等の精度で車両の7DoFの予測精度を推定する。
論文 参考訳(メタデータ) (2021-10-21T08:26:48Z) - Disentangling and Vectorization: A 3D Visual Perception Approach for
Autonomous Driving Based on Surround-View Fisheye Cameras [3.485767750936058]
多次元ベクトルは、異なる次元と段階で生成される有効情報を含むことが提案されている。
実魚眼画像実験により,本手法は実時間で最先端の精度を達成できることが実証された。
論文 参考訳(メタデータ) (2021-07-19T13:24:21Z) - What My Motion tells me about Your Pose: A Self-Supervised Monocular 3D
Vehicle Detector [41.12124329933595]
参照領域上で事前学習した方向推定モデルにおいて,単眼視計測を用いた自己教師型微調整を行った。
その後、自己監督車両配向推定器上に構築された最適化に基づく単分子式3次元境界箱検出器を実演した。
論文 参考訳(メタデータ) (2020-07-29T12:58:40Z) - BirdNet+: End-to-End 3D Object Detection in LiDAR Bird's Eye View [117.44028458220427]
自動運転車のオンボード3Dオブジェクト検出は、LiDARデバイスが捉えた幾何学情報に依存することが多い。
本稿では,BEV画像のみから指向性3Dボックスを推測可能な,エンドツーエンドの3Dオブジェクト検出フレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-09T15:08:40Z) - Road Curb Detection and Localization with Monocular Forward-view Vehicle
Camera [74.45649274085447]
魚眼レンズを装着した校正単眼カメラを用いて3Dパラメータを推定するロバストな手法を提案する。
我々のアプローチでは、車両が90%以上の精度で、リアルタイムで距離を抑えることができる。
論文 参考訳(メタデータ) (2020-02-28T00:24:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。