論文の概要: BlindSpotNet: Seeing Where We Cannot See
- arxiv url: http://arxiv.org/abs/2207.03870v1
- Date: Fri, 8 Jul 2022 12:54:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-12 07:55:59.461457
- Title: BlindSpotNet: Seeing Where We Cannot See
- Title(参考訳): BlindSpotNet: 見ることができない場所を見る
- Authors: Taichi Fukuda, Kotaro Hasegawa, Shinya Ishizaki, Shohei Nobuhara, and
Ko Nishino
- Abstract要約: 道路景観理解のための重要な視覚課題として,2次元目視点推定を導入する。
車両のバンテージポイントから隠された道路領域を自動的に検出することにより、手動運転者や自動運転システムが事故の潜在的な原因に積極的に警告することができる。
- 参考スコア(独自算出の注目度): 20.689816289568718
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce 2D blind spot estimation as a critical visual task for road
scene understanding. By automatically detecting road regions that are occluded
from the vehicle's vantage point, we can proactively alert a manual driver or a
self-driving system to potential causes of accidents (e.g., draw attention to a
road region from which a child may spring out). Detecting blind spots in full
3D would be challenging, as 3D reasoning on the fly even if the car is equipped
with LiDAR would be prohibitively expensive and error prone. We instead propose
to learn to estimate blind spots in 2D, just from a monocular camera. We
achieve this in two steps. We first introduce an automatic method for
generating ``ground-truth'' blind spot training data for arbitrary driving
videos by leveraging monocular depth estimation, semantic segmentation, and
SLAM. The key idea is to reason in 3D but from 2D images by defining blind
spots as those road regions that are currently invisible but become visible in
the near future. We construct a large-scale dataset with this automatic offline
blind spot estimation, which we refer to as Road Blind Spot (RBS) dataset.
Next, we introduce BlindSpotNet (BSN), a simple network that fully leverages
this dataset for fully automatic estimation of frame-wise blind spot
probability maps for arbitrary driving videos. Extensive experimental results
demonstrate the validity of our RBS Dataset and the effectiveness of our BSN.
- Abstract(参考訳): 道路シーン理解のための重要な視覚的タスクとして,2次元盲点推定を導入する。
車両のバンテージポイントから隠された道路領域を自動的に検出することにより、手動運転者や自動運転システムが事故の潜在的な原因について積極的に警告することができる(例えば、子供が飛び出す可能性のある道路領域に注意を向ける)。
完全3Dで盲点を検出するのは困難で、LiDARが装備されていれば3Dの推論は違法に高価でエラーを起こしやすい。
その代わりに、単眼カメラだけで2Dの盲点を推定する方法を提案する。
これを2つのステップで達成します。
まず,単眼深度推定,セマンティクスセグメンテーション,slamを活用し,任意の運転映像に対して'接地-真実''ブラインドスポットトレーニングデータを生成する自動手法を提案する。
重要なアイデアは、3D画像ではなく2D画像から、現在見えないが近い将来見えてくる道路領域として盲点を定義することだ。
我々は、この自動オフライン盲点推定による大規模データセットを構築し、Road Blind Spot (RBS) データセットと呼ぶ。
次にBlindSpotNet(BSN)を導入し、このデータセットをフル活用して任意の運転ビデオのフレーム単位の盲点確率マップの完全自動推定を行う。
RBSデータセットの有効性とBSNの有効性を実験的に検証した。
関連論文リスト
- Accurate Automatic 3D Annotation of Traffic Lights and Signs for Autonomous Driving [0.0]
交通信号や道路標識などの交通管理対象の3D検出は、自動運転車にとって不可欠である。
本稿では,信号機や標識の3次元バウンディングボックスアノテーションを自動生成する手法を提案する。
論文 参考訳(メタデータ) (2024-09-19T09:50:03Z) - BEV-MAE: Bird's Eye View Masked Autoencoders for Point Cloud
Pre-training in Autonomous Driving Scenarios [51.285561119993105]
自律運転におけるLiDARに基づく3Dオブジェクト検出のための,効率的なマスク付きオートエンコーダ事前学習フレームワークであるBEV-MAEを提案する。
具体的には、3Dエンコーダ学習特徴表現を導くために,鳥の目視(BEV)誘導マスキング戦略を提案する。
学習可能なポイントトークンを導入し、3Dエンコーダの一貫性のある受容的フィールドサイズを維持する。
論文 参考訳(メタデータ) (2022-12-12T08:15:03Z) - Blind-Spot Collision Detection System for Commercial Vehicles Using
Multi Deep CNN Architecture [0.17499351967216337]
高レベル特徴記述子に基づく2つの畳み込みニューラルネットワーク(CNN)は、重車両の盲点衝突を検出するために提案される。
盲点車両検出のための高次特徴抽出のための2つの事前学習ネットワークを統合するために,融合手法を提案する。
機能の融合により、より高速なR-CNNの性能が大幅に向上し、既存の最先端手法よりも優れていた。
論文 参考訳(メタデータ) (2022-08-17T11:10:37Z) - ONCE-3DLanes: Building Monocular 3D Lane Detection [41.46466150783367]
OnCE-3DLanesは3次元空間にレーンレイアウトアノテーションを付加した実世界の自律走行データセットである。
点雲と画像ピクセルとの明確な関係を利用して、データセットのアノテーションパイプラインは、高品質な3Dレーンの位置を自動的に生成するように設計されている。
論文 参考訳(メタデータ) (2022-04-30T16:35:25Z) - Rope3D: TheRoadside Perception Dataset for Autonomous Driving and
Monocular 3D Object Detection Task [48.555440807415664]
道路沿いの知覚3Dデータセットに挑戦する最初のハイダイバーシティを提示する。
データセットは50Kイメージと、さまざまなシーンで1.5M以上の3Dオブジェクトで構成されている。
本稿では,様々なセンサや視点によって引き起こされるあいまいさを解決するために,幾何学的制約を活用することを提案する。
論文 参考訳(メタデータ) (2022-03-25T12:13:23Z) - PersFormer: 3D Lane Detection via Perspective Transformer and the
OpenLane Benchmark [109.03773439461615]
PersFormerは、新しいトランスフォーマーベースの空間特徴変換モジュールを備えた、エンドツーエンドのモノクル3Dレーン検出器である。
高品質なアノテーションとシナリオの多様性を備えたOpenLaneと呼ばれる,最初の大規模な3Dレーンデータセットの1つをリリースしました。
論文 参考訳(メタデータ) (2022-03-21T16:12:53Z) - FGR: Frustum-Aware Geometric Reasoning for Weakly Supervised 3D Vehicle
Detection [81.79171905308827]
3Dアノテーションを使わずに点雲中の車両を検出するためのフラストラム対応幾何推論(FGR)を提案する。
本手法は粗い3次元セグメンテーションと3次元バウンディングボックス推定の2段階からなる。
2Dバウンディングボックスとスパースポイントクラウドだけで、3D空間内のオブジェクトを正確に検出できます。
論文 参考訳(メタデータ) (2021-05-17T07:29:55Z) - Fine-Grained Vehicle Perception via 3D Part-Guided Visual Data
Augmentation [77.60050239225086]
実画像中の車両に動的部品を付加した3次元自動車モデルによる効果的なトレーニングデータ生成プロセスを提案する。
私達のアプローチは人間の相互作用なしで完全に自動です。
VUS解析用マルチタスクネットワークとVHI解析用マルチストリームネットワークを提案する。
論文 参考訳(メタデータ) (2020-12-15T03:03:38Z) - Road Curb Detection and Localization with Monocular Forward-view Vehicle
Camera [74.45649274085447]
魚眼レンズを装着した校正単眼カメラを用いて3Dパラメータを推定するロバストな手法を提案する。
我々のアプローチでは、車両が90%以上の精度で、リアルタイムで距離を抑えることができる。
論文 参考訳(メタデータ) (2020-02-28T00:24:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。