論文の概要: PixSet : An Opportunity for 3D Computer Vision to Go Beyond Point Clouds
With a Full-Waveform LiDAR Dataset
- arxiv url: http://arxiv.org/abs/2102.12010v1
- Date: Wed, 24 Feb 2021 01:13:17 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-25 22:06:05.730272
- Title: PixSet : An Opportunity for 3D Computer Vision to Go Beyond Point Clouds
With a Full-Waveform LiDAR Dataset
- Title(参考訳): PixSet : フルウェーブフォームLiDARデータセットを用いた3次元コンピュータビジョンのポイントクラウドを越える機会
- Authors: Jean-Luc D\'eziel, Pierre Merriaux, Francis Tremblay, Dave Lessard,
Dominique Plourde, Julien Stanguennec, Pierre Goulet and Pierre Olivier
- Abstract要約: Leddar PixSetは、自動運転研究開発のための新しい公開データセット(dataset.leddartech.com)である。
ピクセットデータセットは、高密度の都市部で記録された97のシーケンスから約29kフレームを含む。
- 参考スコア(独自算出の注目度): 0.11726720776908521
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Leddar PixSet is a new publicly available dataset (dataset.leddartech.com)
for autonomous driving research and development. One key novelty of this
dataset is the presence of full-waveform data from the Leddar Pixell sensor, a
solid-state flash LiDAR. Full-waveform data has been shown to improve the
performance of perception algorithms in airborne applications but is yet to be
demonstrated for terrestrial applications such as autonomous driving. The
PixSet dataset contains approximately 29k frames from 97 sequences recorded in
high-density urban areas, using a set of various sensors (cameras, LiDARs,
radar, IMU, etc.) Each frame has been manually annotated with 3D bounding
boxes.
- Abstract(参考訳): Leddar PixSetは、自動運転研究開発のための新しい公開データセット(dataset.leddartech.com)である。
このデータセットの重要な新機能の1つは、固体フラッシュLiDARであるLeddar Pixellセンサーからのフル波形データの存在です。
フルウェーブフォームデータは、空中アプリケーションにおける知覚アルゴリズムの性能を向上させることが示されているが、自動運転のような地上アプリケーションでは、まだ実証されていない。
PixSetデータセットには、さまざまなセンサー(カメラ、LiDAR、レーダー、IMUなど)を使用して、高密度都市部で記録された97のシーケンスから約29kフレームが含まれています。
各フレームは手動で3dバウンディングボックスでアノテートされている。
関連論文リスト
- Vision meets mmWave Radar: 3D Object Perception Benchmark for Autonomous
Driving [30.456314610767667]
CRUW3Dデータセットには、66K同期カメラ、レーダー、LiDARフレームが含まれる。
この種のフォーマットは、カメラとレーダーの間の情報や特徴を融合させた後、機械学習モデルによりより信頼性の高い知覚結果が得られる。
論文 参考訳(メタデータ) (2023-11-17T01:07:37Z) - A9 Intersection Dataset: All You Need for Urban 3D Camera-LiDAR Roadside
Perception [20.10416681832639]
A9 Intersectionデータセットはラベル付きLiDAR点雲と同期カメラ画像で構成されている。
私たちのデータセットは4.8kの画像と57.4k以上の3Dボックスを手動でラベル付けした点雲で構成されています。
論文 参考訳(メタデータ) (2023-06-15T16:39:51Z) - The LuViRA Dataset: Measurement Description [53.35153095302381]
このデータセットには、Lund University Vision、Radio、Audio(LuViRA)データセットという、視覚、オーディオ、ラジオセンサーが含まれている。
このデータセットの主な目的は、ローカライゼーションタスクに最もよく使用されるセンサーを融合させる研究を可能にすることである。
論文 参考訳(メタデータ) (2023-02-10T15:12:40Z) - Argoverse 2: Next Generation Datasets for Self-Driving Perception and
Forecasting [64.7364925689825]
Argoverse 2(AV2)は、自動運転分野の研究の知覚と予測のための3つのデータセットの集合である。
Lidarデータセットには、ラベルなしのLidar点雲とマップ整列ポーズの2万のシーケンスが含まれている。
Motion Forecastingデータセットには、各ローカルシーンにおける自動運転車と他のアクター間の興味深い、挑戦的なインタラクションのために採掘された25万のシナリオが含まれている。
論文 参考訳(メタデータ) (2023-01-02T00:36:22Z) - aiMotive Dataset: A Multimodal Dataset for Robust Autonomous Driving
with Long-Range Perception [0.0]
このデータセットは、同期して校正されたLiDAR、カメラ、および360度の視野をカバーするレーダーセンサーを備えた176のシーンで構成されている。
収集したデータは、昼間、夜、雨の間に、高速道路、都市、郊外で撮影された。
我々は3次元物体検出のための一次元・多モードベースラインモデルを訓練した。
論文 参考訳(メタデータ) (2022-11-17T10:19:59Z) - Benchmarking the Robustness of LiDAR-Camera Fusion for 3D Object
Detection [58.81316192862618]
自律運転における3D知覚のための2つの重要なセンサーは、カメラとLiDARである。
これら2つのモダリティを融合させることで、3次元知覚モデルの性能を大幅に向上させることができる。
我々は、最先端の核融合法を初めてベンチマークした。
論文 参考訳(メタデータ) (2022-05-30T09:35:37Z) - PandaSet: Advanced Sensor Suite Dataset for Autonomous Driving [7.331883729089782]
PandaSetは、商用ライセンスのない完全かつ高精度な自動運転車センサーキットによって生成された最初のデータセットである。
データセットには100以上のシーンが含まれており、それぞれが8秒の長さで、オブジェクト分類用の28種類のラベルとセマンティックセグメンテーションのための37種類のラベルを提供する。
論文 参考訳(メタデータ) (2021-12-23T14:52:12Z) - One Million Scenes for Autonomous Driving: ONCE Dataset [91.94189514073354]
自律運転シナリオにおける3次元物体検出のためのONCEデータセットを提案する。
データは、利用可能な最大の3D自動運転データセットよりも20倍長い144時間の運転時間から選択される。
我々はONCEデータセット上で、様々な自己教師的・半教師的手法を再現し、評価する。
論文 参考訳(メタデータ) (2021-06-21T12:28:08Z) - PC-DAN: Point Cloud based Deep Affinity Network for 3D Multi-Object
Tracking (Accepted as an extended abstract in JRDB-ACT Workshop at CVPR21) [68.12101204123422]
点雲は3次元座標における空間データの密集したコンパイルである。
我々は3次元多目的追跡(MOT)のためのPointNetベースのアプローチを提案する。
論文 参考訳(メタデータ) (2021-06-03T05:36:39Z) - Cirrus: A Long-range Bi-pattern LiDAR Dataset [35.87501129332217]
我々は、自律運転タスクのための新しい長距離二パターンLiDARパブリックデータセットであるCirrusを紹介する。
我々のプラットフォームには高解像度ビデオカメラと250メートルの有効範囲のLiDARセンサーが装備されている。
Cirrusでは、8つのカテゴリのオブジェクトが、有効範囲全体のLiDAR点雲に完全に注釈付けされている。
論文 参考訳(メタデータ) (2020-12-05T03:18:31Z) - LIBRE: The Multiple 3D LiDAR Dataset [54.25307983677663]
We present LIBRE: LiDAR Benchmarking and Reference, a first-of-in-kind dataset with 10 different LiDAR sensor。
LIBREは、現在利用可能なLiDARを公平に比較するための手段を提供するために、研究コミュニティに貢献する。
また、既存の自動運転車やロボティクス関連のソフトウェアの改善も促進する。
論文 参考訳(メタデータ) (2020-03-13T06:17:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。