論文の概要: It's All Around You: Range-Guided Cylindrical Network for 3D Object
Detection
- arxiv url: http://arxiv.org/abs/2012.03121v1
- Date: Sat, 5 Dec 2020 21:02:18 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-22 12:09:35.047742
- Title: It's All Around You: Range-Guided Cylindrical Network for 3D Object
Detection
- Title(参考訳): 3dオブジェクト検出のためのレンジガイド付き円筒型ネットワーク
- Authors: Meytal Rapoport-Lavie and Dan Raviv
- Abstract要約: 本研究は,360度深度スキャナーによって生成された3次元データを解析するための新しい手法を提案する。
距離誘導畳み込みの概念を導入し,エゴ車と物体のスケールからの距離で受容場を適応させる。
我々のネットワークは、現在の最先端アーキテクチャに匹敵するnuScenesチャレンジにおいて、強力な結果を示す。
- 参考スコア(独自算出の注目度): 4.518012967046983
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modern perception systems in the field of autonomous driving rely on 3D data
analysis. LiDAR sensors are frequently used to acquire such data due to their
increased resilience to different lighting conditions. Although rotating LiDAR
scanners produce ring-shaped patterns in space, most networks analyze their
data using an orthogonal voxel sampling strategy. This work presents a novel
approach for analyzing 3D data produced by 360-degree depth scanners, utilizing
a more suitable coordinate system, which is aligned with the scanning pattern.
Furthermore, we introduce a novel notion of range-guided convolutions, adapting
the receptive field by distance from the ego vehicle and the object's scale.
Our network demonstrates powerful results on the nuScenes challenge, comparable
to current state-of-the-art architectures. The backbone architecture introduced
in this work can be easily integrated onto other pipelines as well.
- Abstract(参考訳): 自動運転分野の現代の知覚システムは、3dデータ分析に依存している。
LiDARセンサは、異なる照明条件に対するレジリエンスの向上により、このようなデータを取得するために頻繁に使用される。
回転するlidarスキャナは空間にリング状のパターンを生成するが、ほとんどのネットワークは直交ボクセルサンプリング戦略を用いてデータを解析する。
本研究では,360度深度スキャナが生成する3次元データを,走査パターンに整合したより適切な座標系を用いて解析する手法を提案する。
さらに,エゴ車と物体のスケールからの距離で受容場を適応させる,レンジ誘導畳み込みという新しい概念を導入する。
我々のネットワークは、現在の最先端アーキテクチャに匹敵するnuScenesチャレンジにおいて、強力な結果を示す。
この作業で導入されたバックボーンアーキテクチャは、他のパイプラインにも簡単に統合できる。
関連論文リスト
- The Oxford Spires Dataset: Benchmarking Large-Scale LiDAR-Visual Localisation, Reconstruction and Radiance Field Methods [10.265865092323041]
本稿では,オックスフォードの有名なランドマーク周辺で収集された大規模マルチモーダルデータセットを紹介する。
また、ローカライゼーション、再構築、新規ビュー合成を含むタスクのベンチマークも作成する。
我々のデータセットとベンチマークは、放射場法とSLAMシステムのより良い統合を容易にすることを意図している。
論文 参考訳(メタデータ) (2024-11-15T19:43:24Z) - Multi-Modal Dataset Acquisition for Photometrically Challenging Object [56.30027922063559]
本稿では,3次元視覚タスクにおける現在のデータセットの限界について,精度,サイズ,リアリズム,および光度に挑戦する対象に対する適切な画像モダリティの観点から検討する。
既存の3次元認識と6次元オブジェクトポーズデータセットを強化する新しいアノテーションと取得パイプラインを提案する。
論文 参考訳(メタデータ) (2023-08-21T10:38:32Z) - LiDAR-CS Dataset: LiDAR Point Cloud Dataset with Cross-Sensors for 3D
Object Detection [36.77084564823707]
ディープラーニングの手法は注釈付きデータに大きく依存しており、ドメインの一般化の問題に直面することが多い。
LiDAR-CSデータセットは、リアルタイムトラフィックにおける3Dオブジェクト検出の領域におけるセンサ関連ギャップに対処する最初のデータセットである。
論文 参考訳(メタデータ) (2023-01-29T19:10:35Z) - MonoDistill: Learning Spatial Features for Monocular 3D Object Detection [80.74622486604886]
本稿では,LiDAR信号からの空間情報を単分子3D検出器に導入するための簡易かつ効果的な手法を提案する。
得られたデータを用いて、ベースラインモデルと同じアーキテクチャで3D検出器をトレーニングする。
実験の結果,提案手法はベースラインモデルの性能を大幅に向上させることができることがわかった。
論文 参考訳(メタデータ) (2022-01-26T09:21:41Z) - PC-DAN: Point Cloud based Deep Affinity Network for 3D Multi-Object
Tracking (Accepted as an extended abstract in JRDB-ACT Workshop at CVPR21) [68.12101204123422]
点雲は3次元座標における空間データの密集したコンパイルである。
我々は3次元多目的追跡(MOT)のためのPointNetベースのアプローチを提案する。
論文 参考訳(メタデータ) (2021-06-03T05:36:39Z) - Deep Continuous Fusion for Multi-Sensor 3D Object Detection [103.5060007382646]
本稿では,LIDARとカメラを併用して高精度な位置検出を実現する3Dオブジェクト検出器を提案する。
我々は,連続畳み込みを利用して画像とlidar特徴マップを異なるレベルの解像度で融合する,エンドツーエンド学習可能なアーキテクチャを設計した。
論文 参考訳(メタデータ) (2020-12-20T18:43:41Z) - Cirrus: A Long-range Bi-pattern LiDAR Dataset [35.87501129332217]
我々は、自律運転タスクのための新しい長距離二パターンLiDARパブリックデータセットであるCirrusを紹介する。
我々のプラットフォームには高解像度ビデオカメラと250メートルの有効範囲のLiDARセンサーが装備されている。
Cirrusでは、8つのカテゴリのオブジェクトが、有効範囲全体のLiDAR点雲に完全に注釈付けされている。
論文 参考訳(メタデータ) (2020-12-05T03:18:31Z) - Stereo RGB and Deeper LIDAR Based Network for 3D Object Detection [40.34710686994996]
3Dオブジェクト検出は、自動運転のシナリオにおいて新たな課題となっている。
以前の作業では、プロジェクションベースまたはボクセルベースのモデルを使用して3Dポイントクラウドを処理していた。
本稿では,意味情報と空間情報の同時利用が可能なStereo RGBおよびDeeper LIDARフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-09T11:19:24Z) - End-to-End Pseudo-LiDAR for Image-Based 3D Object Detection [62.34374949726333]
擬似LiDAR(PL)は、LiDARセンサに基づく手法と安価なステレオカメラに基づく手法の精度ギャップを劇的に減らした。
PLは最先端のディープニューラルネットワークと2D深度マップ出力を3Dポイントクラウド入力に変換することで3Dオブジェクト検出のための3D深度推定を組み合わせている。
我々は、PLパイプライン全体をエンドツーエンドにトレーニングできるように、差別化可能なRepresentation (CoR)モジュールに基づく新しいフレームワークを導入します。
論文 参考訳(メタデータ) (2020-04-07T02:18:38Z) - DOPS: Learning to Detect 3D Objects and Predict their 3D Shapes [54.239416488865565]
LIDARデータに対する高速な1段3次元物体検出法を提案する。
我々の手法の中核となる新規性は高速かつシングルパスアーキテクチャであり、どちらも3次元の物体を検出し、それらの形状を推定する。
提案手法は,ScanNetシーンのオブジェクト検出で5%,オープンデータセットでは3.4%の精度で結果が得られた。
論文 参考訳(メタデータ) (2020-04-02T17:48:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。