論文の概要: UrbanNet: Leveraging Urban Maps for Long Range 3D Object Detection
- arxiv url: http://arxiv.org/abs/2110.05561v1
- Date: Mon, 11 Oct 2021 19:03:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-14 08:53:25.293058
- Title: UrbanNet: Leveraging Urban Maps for Long Range 3D Object Detection
- Title(参考訳): UrbanNet:長距離3Dオブジェクト検出に都市マップを活用する
- Authors: Juan Carrillo, Steven Waslander
- Abstract要約: UrbanNetは、静的カメラを用いた長距離モノクル3Dオブジェクト検出のためのモジュラーアーキテクチャである。
提案システムは,利用可能な都市地図と,成熟した2次元オブジェクト検出器と効率的な3次元オブジェクト記述器を組み合わせたものである。
我々は,UrbanNetを,新しい難易度の高い合成データセットで評価し,斜面の変化を伴う道路交通検知におけるその設計の利点を強調した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Relying on monocular image data for precise 3D object detection remains an
open problem, whose solution has broad implications for cost-sensitive
applications such as traffic monitoring. We present UrbanNet, a modular
architecture for long range monocular 3D object detection with static cameras.
Our proposed system combines commonly available urban maps along with a mature
2D object detector and an efficient 3D object descriptor to accomplish accurate
detection at long range even when objects are rotated along any of their three
axes. We evaluate UrbanNet on a novel challenging synthetic dataset and
highlight the advantages of its design for traffic detection in roads with
changing slope, where the flat ground approximation does not hold. Data and
code are available at https://github.com/TRAILab/UrbanNet
- Abstract(参考訳): 正確な3次元物体検出のための単眼画像データの利用は依然として未解決の問題であり、その解決策は交通監視などのコスト感受性アプリケーションに広く影響を及ぼす。
静的カメラを用いた長距離モノクル3次元物体検出のためのモジュールアーキテクチャであるUrbanNetを提案する。
提案システムでは,3軸のいずれかに沿って物体が回転している場合でも,3次元オブジェクト検出器と効率的な3次元オブジェクト記述器を併用して,長距離での正確な検出を実現する。
我々は,新しい難解な合成データセットを用いてUrbanNetを評価し,平坦な地盤近似が保たない斜面の道路における交通検知におけるその設計の利点を強調した。
データとコードはhttps://github.com/TRAILab/UrbanNetで入手できる。
関連論文リスト
- What Matters in Range View 3D Object Detection [15.147558647138629]
ライダーベースの知覚パイプラインは複雑なシーンを解釈するために3Dオブジェクト検出モデルに依存している。
過去のレンジビュー文献に提案されている複数の手法を使わずに、レンジビュー3次元オブジェクト検出モデル間の最先端を実現する。
論文 参考訳(メタデータ) (2024-07-23T18:42:37Z) - Empowering Urban Traffic Management: Elevated 3D LiDAR for Data Collection and Advanced Object Detection Analysis [4.831084635928491]
本稿では,高機能LiDARセンサのパワーを利用して,交通シナリオにおける3次元物体の検出と解析を変換する新しいフレームワークを提案する。
実世界のトラフィックデータセットの取得に制限があるため、シミュレータを用いて特定のシナリオに対して3Dポイントクラウドを生成する。
論文 参考訳(メタデータ) (2024-05-21T21:12:09Z) - SOGDet: Semantic-Occupancy Guided Multi-view 3D Object Detection [19.75965521357068]
本稿では,SOGDet(Semantic-Occupancy Guided Multi-view Object Detection)と呼ばれる新しい手法を提案する。
以上の結果から,SOGDet は nuScenes Detection Score (NDS) と平均平均精度 (mAP) の3つのベースライン法の性能を一貫して向上させることがわかった。
これは、3Dオブジェクト検出と3Dセマンティック占有の組み合わせが、3D環境をより包括的に認識し、より堅牢な自律運転システムの構築を支援することを示唆している。
論文 参考訳(メタデータ) (2023-08-26T07:38:21Z) - SensatUrban: Learning Semantics from Urban-Scale Photogrammetric Point
Clouds [52.624157840253204]
センサットウルバン(SensatUrban)は、イギリスの3都市から収集された7.6km2の30億点近くからなる、都市規模のUAV測光点クラウドデータセットである。
データセットの各ポイントは、粒度の細かいセマンティックアノテーションでラベル付けされ、その結果、既存の最大のフォトグラムポイントクラウドデータセットの3倍の大きさのデータセットが生成される。
論文 参考訳(メタデータ) (2022-01-12T14:48:11Z) - From Multi-View to Hollow-3D: Hallucinated Hollow-3D R-CNN for 3D Object
Detection [101.20784125067559]
本稿では,3次元物体検出の問題に対処するため,Halucinated Hollow-3D R-CNNという新しいアーキテクチャを提案する。
本稿では,まず,視点ビューと鳥眼ビューに点雲を逐次投影することで,多視点特徴を抽出する。
3Dオブジェクトは、新しい階層型Voxel RoIプール操作でボックスリファインメントモジュールを介して検出される。
論文 参考訳(メタデータ) (2021-07-30T02:00:06Z) - Monocular Quasi-Dense 3D Object Tracking [99.51683944057191]
周囲の物体の将来の位置を予測し、自律運転などの多くのアプリケーションで観測者の行動を計画するためには、信頼性と正確な3D追跡フレームワークが不可欠である。
移動プラットフォーム上で撮影された2次元画像のシーケンスから,移動物体を時間とともに効果的に関連付け,その全3次元バウンディングボックス情報を推定するフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-12T15:30:02Z) - Ground-aware Monocular 3D Object Detection for Autonomous Driving [6.5702792909006735]
1台のRGBカメラで環境中の物体の位置と向きを推定することは、低コストの都市自動運転と移動ロボットにとって難しい課題である。
既存のアルゴリズムのほとんどは、2D-3D対応における幾何学的制約に基づいており、これは一般的な6Dオブジェクトのポーズ推定に由来する。
深層学習の枠組みにおいて、そのようなアプリケーション固有の事前知識を完全に活用するための新しいニューラルネットワークモジュールを導入する。
論文 参考訳(メタデータ) (2021-02-01T08:18:24Z) - Fast and Furious: Real Time End-to-End 3D Detection, Tracking and Motion
Forecasting with a Single Convolutional Net [93.51773847125014]
本研究では,3Dセンサが捉えたデータを用いて,3D検出,追跡,動作予測を共同で推論する,新たなディープニューラルネットワークを提案する。
鳥の眼球を3次元の世界として表現し,空間と時間にまたがる3次元畳み込みを行う。
論文 参考訳(メタデータ) (2020-12-22T22:43:35Z) - Deep Continuous Fusion for Multi-Sensor 3D Object Detection [103.5060007382646]
本稿では,LIDARとカメラを併用して高精度な位置検出を実現する3Dオブジェクト検出器を提案する。
我々は,連続畳み込みを利用して画像とlidar特徴マップを異なるレベルの解像度で融合する,エンドツーエンド学習可能なアーキテクチャを設計した。
論文 参考訳(メタデータ) (2020-12-20T18:43:41Z) - ZoomNet: Part-Aware Adaptive Zooming Neural Network for 3D Object
Detection [69.68263074432224]
ステレオ画像に基づく3D検出のためのZoomNetという新しいフレームワークを提案する。
ZoomNetのパイプラインは、通常の2Dオブジェクト検出モデルから始まり、左右のバウンディングボックスのペアを取得するために使用される。
さらに,RGB画像のテクスチャキューを多用し,より正確な異質度推定を行うため,適応ズームという概念的に真直ぐなモジュールを導入する。
論文 参考訳(メタデータ) (2020-03-01T17:18:08Z) - SMOKE: Single-Stage Monocular 3D Object Detection via Keypoint
Estimation [3.1542695050861544]
3Dの向きとオブジェクトの変換を推定することは、インフラストラクチャレスの自律走行と運転に不可欠である。
SMOKEと呼ばれる新しい3次元オブジェクト検出手法を提案する。
構造的単純さにもかかわらず、提案するSMOKEネットワークは、KITTIデータセット上の既存のモノクル3D検出方法よりも優れている。
論文 参考訳(メタデータ) (2020-02-24T08:15:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。