論文の概要: DIDLM:A Comprehensive Multi-Sensor Dataset with Infrared Cameras, Depth Cameras, LiDAR, and 4D Millimeter-Wave Radar in Challenging Scenarios for 3D Mapping
- arxiv url: http://arxiv.org/abs/2404.09622v1
- Date: Mon, 15 Apr 2024 09:49:33 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-16 12:50:12.948370
- Title: DIDLM:A Comprehensive Multi-Sensor Dataset with Infrared Cameras, Depth Cameras, LiDAR, and 4D Millimeter-Wave Radar in Challenging Scenarios for 3D Mapping
- Title(参考訳): DIDLM:3次元マッピングのための3次元シナリオにおける赤外線カメラ,深度カメラ,LiDAR,及び4次元ミリ波レーダを用いた総合的マルチセンサデータセット
- Authors: WeiSheng Gong, Chen He, KaiJie Su, QingYong Li,
- Abstract要約: 本研究では,屋内・屋外環境における3次元マッピングのための総合的マルチセンサ・データセットを提案する。
このデータセットは、赤外線カメラ、深度カメラ、LiDAR、および4Dミリ波レーダーからのデータで構成されている。
さまざまなSLAMアルゴリズムを使用してデータセットを処理し、異なるシナリオにおけるアルゴリズムのパフォーマンスの違いを明らかにする。
- 参考スコア(独自算出の注目度): 7.050468075029598
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This study presents a comprehensive multi-sensor dataset designed for 3D mapping in challenging indoor and outdoor environments. The dataset comprises data from infrared cameras, depth cameras, LiDAR, and 4D millimeter-wave radar, facilitating exploration of advanced perception and mapping techniques. Integration of diverse sensor data enhances perceptual capabilities in extreme conditions such as rain, snow, and uneven road surfaces. The dataset also includes interactive robot data at different speeds indoors and outdoors, providing a realistic background environment. Slam comparisons between similar routes are conducted, analyzing the influence of different complex scenes on various sensors. Various SLAM algorithms are employed to process the dataset, revealing performance differences among algorithms in different scenarios. In summary, this dataset addresses the problem of data scarcity in special environments, fostering the development of perception and mapping algorithms for extreme conditions. Leveraging multi-sensor data including infrared, depth cameras, LiDAR, 4D millimeter-wave radar, and robot interactions, the dataset advances intelligent mapping and perception capabilities.Our dataset is available at https://github.com/GongWeiSheng/DIDLM.
- Abstract(参考訳): 本研究では,屋内・屋外環境における3次元マッピングのための総合的マルチセンサ・データセットを提案する。
このデータセットは、赤外線カメラ、深度カメラ、LiDAR、および4Dミリ波レーダーからのデータで構成され、高度な知覚とマッピング技術の調査を容易にする。
多様なセンサデータの統合は、雨や雪、不均一な路面といった極端な条件下での知覚能力を高める。
データセットには、屋内と屋外のさまざまな速度で対話的なロボットデータが含まれており、現実的な背景環境を提供する。
類似経路間のスラム比較を行い、異なる複雑なシーンが様々なセンサーに与える影響を分析した。
さまざまなSLAMアルゴリズムを使用してデータセットを処理し、異なるシナリオにおけるアルゴリズムのパフォーマンスの違いを明らかにする。
要約すると、このデータセットは特殊環境におけるデータ不足の問題に対処し、極端条件に対する知覚とマッピングアルゴリズムの開発を促進する。
赤外線、ディープカメラ、LiDAR、4Dミリ波レーダー、ロボットインタラクションを含むマルチセンサーデータを活用することで、データセットはインテリジェントなマッピングと知覚能力を前進させ、我々のデータセットはhttps://github.com/GongWeiSheng/DIDLMで利用可能である。
関連論文リスト
- RobuRCDet: Enhancing Robustness of Radar-Camera Fusion in Bird's Eye View for 3D Object Detection [68.99784784185019]
暗い照明や悪天候はカメラの性能を低下させる。
レーダーは騒音と位置のあいまいさに悩まされる。
本稿では,BEVの頑健な物体検出モデルであるRobuRCDetを提案する。
論文 参考訳(メタデータ) (2025-02-18T17:17:38Z) - Radar Fields: Frequency-Space Neural Scene Representations for FMCW Radar [62.51065633674272]
本稿では,アクティブレーダイメージア用に設計されたニューラルシーン再構成手法であるRadar Fieldsを紹介する。
提案手法では,暗黙的ニューラルジオメトリとリフレクタンスモデルを用いて,暗黙的な物理インフォームドセンサモデルを構築し,生のレーダ測定を直接合成する。
本研究では,密集した車両やインフラを備えた都市景観を含む,多様な屋外シナリオにおける手法の有効性を検証する。
論文 参考訳(メタデータ) (2024-05-07T20:44:48Z) - NTU4DRadLM: 4D Radar-centric Multi-Modal Dataset for Localization and
Mapping [32.0536548410301]
SLAMは4Dレーダー、サーマルカメラ、IMUをベースとしている。
1)4Dレーダー、サーマルカメラ、IMU、3D LiDAR、ビジュアルカメラ、RTK GPSの6つのセンサーを同時に備えた唯一のデータセットである。
論文 参考訳(メタデータ) (2023-09-02T15:12:20Z) - ThermRad: A Multi-modal Dataset for Robust 3D Object Detection under
Challenging Conditions [15.925365473140479]
ThermRadと呼ばれる新しいマルチモーダルデータセットは、3D LiDAR、4Dレーダー、RGBカメラ、サーマルカメラを含む。
本研究では4次元レーダーとサーマルカメラの相補的な強度を利用して物体検出性能を向上させるRTDF-RCNNと呼ばれる新しいマルチモーダル融合法を提案する。
本手法は,自動車,歩行者,自転車の検出において,それぞれ7.98%,24.27%,27.15%以上の改善を実現している。
論文 参考訳(メタデータ) (2023-08-20T04:34:30Z) - DensePose From WiFi [86.61881052177228]
WiFi信号の位相と振幅を24のヒト領域内の紫外線座標にマッピングするディープニューラルネットワークを開発した。
本モデルでは,複数の被験者の密集したポーズを,画像に基づくアプローチと同等の性能で推定することができる。
論文 参考訳(メタデータ) (2022-12-31T16:48:43Z) - MIPI 2022 Challenge on RGBW Sensor Fusion: Dataset and Report [90.34148262169595]
本稿では,新しい画像センサと撮像アルゴリズムに着目した5つのトラックを含む,最初のMIPI課題を紹介する。
参加者は、高品質なRGBWとBayerペアの70(トレーニング)と15(検証)シーンを含む、新しいデータセットを与えられた。
すべてのデータは、屋外と屋内の両方でRGBWセンサーで撮影されました。
論文 参考訳(メタデータ) (2022-09-15T05:56:53Z) - K-Radar: 4D Radar Object Detection for Autonomous Driving in Various
Weather Conditions [9.705678194028895]
KAIST-Radarは、新しい大規模オブジェクト検出データセットとベンチマークである。
4次元レーダーテンソル(4DRT)データの35Kフレームを含み、ドップラー、レンジ、方位、標高の寸法に沿って電力の測定を行う。
我々は、慎重に校正された高分解能ライダー、サラウンドステレオカメラ、RTK-GPSから補助的な測定を行う。
論文 参考訳(メタデータ) (2022-06-16T13:39:21Z) - All-Weather Object Recognition Using Radar and Infrared Sensing [1.7513645771137178]
この論文は、物体を認識するために、長波偏光赤外線(IR)画像とイメージングレーダに基づく新しいセンシング開発を探求する。
まず、偏光赤外データを用いたストークスパラメータに基づく手法を開発し、深層ニューラルネットワークを用いた車両の認識を行った。
第2に、低THzレーダセンサで捉えたパワースペクトルのみを用いて、制御されたシナリオで物体認識を行う可能性について検討した。
最後に、悪天候下で車両を検出するレーダーロバスト性を示す多くの異なる気象シナリオを備えた、"ワイルド"に新しい大規模なデータセットを作成しました。
論文 参考訳(メタデータ) (2020-10-30T14:16:39Z) - RADIATE: A Radar Dataset for Automotive Perception in Bad Weather [13.084162751635239]
RADIATEには3時間のアノテートされたレーダー画像があり、合計で200万以上の俳優がいる。
様々な天候条件下で8種類の俳優をカバーしている。
RADIATEにはステレオ画像、32チャンネルのLiDAR、GPSデータもあり、他のアプリケーションに向けられている。
論文 参考訳(メタデータ) (2020-10-18T19:33:27Z) - LIBRE: The Multiple 3D LiDAR Dataset [54.25307983677663]
We present LIBRE: LiDAR Benchmarking and Reference, a first-of-in-kind dataset with 10 different LiDAR sensor。
LIBREは、現在利用可能なLiDARを公平に比較するための手段を提供するために、研究コミュニティに貢献する。
また、既存の自動運転車やロボティクス関連のソフトウェアの改善も促進する。
論文 参考訳(メタデータ) (2020-03-13T06:17:39Z) - Drone-based RGB-Infrared Cross-Modality Vehicle Detection via
Uncertainty-Aware Learning [59.19469551774703]
ドローンによる車両検出は、空中画像中の車両の位置とカテゴリーを見つけることを目的としている。
我々はDroneVehicleと呼ばれる大規模ドローンベースのRGB赤外線車両検出データセットを構築した。
私たちのDroneVehicleは28,439RGBの赤外線画像を収集し、都市道路、住宅地、駐車場、その他のシナリオを昼から夜までカバーしています。
論文 参考訳(メタデータ) (2020-03-05T05:29:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。