論文の概要: DIDLM:A Comprehensive Multi-Sensor Dataset with Infrared Cameras, Depth Cameras, LiDAR, and 4D Millimeter-Wave Radar in Challenging Scenarios for 3D Mapping
- arxiv url: http://arxiv.org/abs/2404.09622v1
- Date: Mon, 15 Apr 2024 09:49:33 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-16 12:50:12.948370
- Title: DIDLM:A Comprehensive Multi-Sensor Dataset with Infrared Cameras, Depth Cameras, LiDAR, and 4D Millimeter-Wave Radar in Challenging Scenarios for 3D Mapping
- Title(参考訳): DIDLM:3次元マッピングのための3次元シナリオにおける赤外線カメラ,深度カメラ,LiDAR,及び4次元ミリ波レーダを用いた総合的マルチセンサデータセット
- Authors: WeiSheng Gong, Chen He, KaiJie Su, QingYong Li,
- Abstract要約: 本研究では,屋内・屋外環境における3次元マッピングのための総合的マルチセンサ・データセットを提案する。
このデータセットは、赤外線カメラ、深度カメラ、LiDAR、および4Dミリ波レーダーからのデータで構成されている。
さまざまなSLAMアルゴリズムを使用してデータセットを処理し、異なるシナリオにおけるアルゴリズムのパフォーマンスの違いを明らかにする。
- 参考スコア(独自算出の注目度): 7.050468075029598
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This study presents a comprehensive multi-sensor dataset designed for 3D mapping in challenging indoor and outdoor environments. The dataset comprises data from infrared cameras, depth cameras, LiDAR, and 4D millimeter-wave radar, facilitating exploration of advanced perception and mapping techniques. Integration of diverse sensor data enhances perceptual capabilities in extreme conditions such as rain, snow, and uneven road surfaces. The dataset also includes interactive robot data at different speeds indoors and outdoors, providing a realistic background environment. Slam comparisons between similar routes are conducted, analyzing the influence of different complex scenes on various sensors. Various SLAM algorithms are employed to process the dataset, revealing performance differences among algorithms in different scenarios. In summary, this dataset addresses the problem of data scarcity in special environments, fostering the development of perception and mapping algorithms for extreme conditions. Leveraging multi-sensor data including infrared, depth cameras, LiDAR, 4D millimeter-wave radar, and robot interactions, the dataset advances intelligent mapping and perception capabilities.Our dataset is available at https://github.com/GongWeiSheng/DIDLM.
- Abstract(参考訳): 本研究では,屋内・屋外環境における3次元マッピングのための総合的マルチセンサ・データセットを提案する。
このデータセットは、赤外線カメラ、深度カメラ、LiDAR、および4Dミリ波レーダーからのデータで構成され、高度な知覚とマッピング技術の調査を容易にする。
多様なセンサデータの統合は、雨や雪、不均一な路面といった極端な条件下での知覚能力を高める。
データセットには、屋内と屋外のさまざまな速度で対話的なロボットデータが含まれており、現実的な背景環境を提供する。
類似経路間のスラム比較を行い、異なる複雑なシーンが様々なセンサーに与える影響を分析した。
さまざまなSLAMアルゴリズムを使用してデータセットを処理し、異なるシナリオにおけるアルゴリズムのパフォーマンスの違いを明らかにする。
要約すると、このデータセットは特殊環境におけるデータ不足の問題に対処し、極端条件に対する知覚とマッピングアルゴリズムの開発を促進する。
赤外線、ディープカメラ、LiDAR、4Dミリ波レーダー、ロボットインタラクションを含むマルチセンサーデータを活用することで、データセットはインテリジェントなマッピングと知覚能力を前進させ、我々のデータセットはhttps://github.com/GongWeiSheng/DIDLMで利用可能である。
関連論文リスト
- MAROON: A Framework for the Joint Characterization of Near-Field High-Resolution Radar and Optical Depth Imaging Techniques [4.816237933371206]
我々は、光学領域と電波領域の両方から深度イメージを特徴付けるというユニークな課題に挑戦する。
本研究では, 対象物, ジオメトリー, 物体間距離について, 深度測定の総合的な評価を行う。
すべてのオブジェクトの測定は、MAROONと呼ばれるマルチモーダルデータセットとして公開されます。
論文 参考訳(メタデータ) (2024-11-01T11:53:10Z) - Exploring Domain Shift on Radar-Based 3D Object Detection Amidst Diverse Environmental Conditions [15.767261586617746]
この研究は、4Dレーダーによる物体検出において、しばしば見過ごされがちな領域シフトの問題について考察する。
以上の結果から,様々な気象シナリオにまたがるドメインシフトが明らかになり,ユニークなデータセットの感度が明らかになった。
異なる道路タイプ、特に高速道路から都市環境への移行は、顕著な領域シフトをもたらします。
論文 参考訳(メタデータ) (2024-08-13T09:55:38Z) - Multi-Modal Dataset Acquisition for Photometrically Challenging Object [56.30027922063559]
本稿では,3次元視覚タスクにおける現在のデータセットの限界について,精度,サイズ,リアリズム,および光度に挑戦する対象に対する適切な画像モダリティの観点から検討する。
既存の3次元認識と6次元オブジェクトポーズデータセットを強化する新しいアノテーションと取得パイプラインを提案する。
論文 参考訳(メタデータ) (2023-08-21T10:38:32Z) - Multimodal Dataset from Harsh Sub-Terranean Environment with Aerosol
Particles for Frontier Exploration [55.41644538483948]
本稿では, エアロゾル粒子を用いた過酷で非構造的な地下環境からのマルチモーダルデータセットを提案する。
ロボットオペレーティング・システム(ROS)フォーマットのすべてのオンボードセンサーから、同期された生データ計測を含んでいる。
本研究の焦点は、時間的・空間的なデータの多様性を捉えることだけでなく、取得したデータに厳しい条件が及ぼす影響を示すことである。
論文 参考訳(メタデータ) (2023-04-27T20:21:18Z) - On the Importance of Accurate Geometry Data for Dense 3D Vision Tasks [61.74608497496841]
不正確または破損したデータのトレーニングは、モデルバイアスとハマーズ一般化能力を誘導する。
本稿では,深度推定と再構成における高密度3次元視覚課題に対するセンサ誤差の影響について検討する。
論文 参考訳(メタデータ) (2023-03-26T22:32:44Z) - DensePose From WiFi [86.61881052177228]
WiFi信号の位相と振幅を24のヒト領域内の紫外線座標にマッピングするディープニューラルネットワークを開発した。
本モデルでは,複数の被験者の密集したポーズを,画像に基づくアプローチと同等の性能で推定することができる。
論文 参考訳(メタデータ) (2022-12-31T16:48:43Z) - CramNet: Camera-Radar Fusion with Ray-Constrained Cross-Attention for
Robust 3D Object Detection [12.557361522985898]
本稿では,カメラとレーダーの読み取りを3次元空間に融合させるカメラレーダマッチングネットワークCramNetを提案する。
本手法は, カメラやレーダセンサが車両内で突然故障した場合においても, 頑健な3次元物体検出を実現するセンサモダリティ・ドロップアウトによるトレーニングを支援する。
論文 参考訳(メタデータ) (2022-10-17T17:18:47Z) - mmBody Benchmark: 3D Body Reconstruction Dataset and Analysis for
Millimeter Wave Radar [10.610455816814985]
ミリ波(mmWave)レーダーは、煙、雨、雪、照明の悪さといった悪環境でも使えるため、人気が高まっている。
以前の研究では、ノイズやスパースなmmWaveレーダ信号から3D骨格やメッシュを再構築する可能性を探っている。
このデータセットは、同期および校正されたmmWaveレーダーポイント雲と、異なるシーンにおけるRGB(D)イメージと、シーン内の人間のためのスケルトン/メシュアノテーションで構成されている。
論文 参考訳(メタデータ) (2022-09-12T08:00:31Z) - Learning Online Multi-Sensor Depth Fusion [100.84519175539378]
SenFuNetは、センサ固有のノイズと外れ値統計を学習するディープフュージョンアプローチである。
実世界のCoRBSとScene3Dデータセットで様々なセンサーの組み合わせで実験を行う。
論文 参考訳(メタデータ) (2022-04-07T10:45:32Z) - Multi-sensor large-scale dataset for multi-view 3D reconstruction [63.59401680137808]
マルチビュー3次元表面再構成のための新しいマルチセンサデータセットを提案する。
スマートフォン、Intel RealSense、Microsoft Kinect、産業用カメラ、構造化光スキャナーなどだ。
14の照明条件下で100方向から取得した107の異なるシーンの約1.4万枚の画像を提供する。
論文 参考訳(メタデータ) (2022-03-11T17:32:27Z) - The Hilti SLAM Challenge Dataset [41.091844019181735]
構築環境は、同時局所化とマッピング(SLAM)アルゴリズムに難しい問題を引き起こす。
本研究を支援するために,Hilti SLAM Challengeデータセットという新しいデータセットを提案する。
各データセットには正確な基底真理が含まれており、SLAM結果を直接テストすることができる。
論文 参考訳(メタデータ) (2021-09-23T12:02:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。