論文の概要: MineInsight: A Multi-sensor Dataset for Humanitarian Demining Robotics in Off-Road Environments
- arxiv url: http://arxiv.org/abs/2506.04842v1
- Date: Thu, 05 Jun 2025 10:08:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-06 21:53:49.650729
- Title: MineInsight: A Multi-sensor Dataset for Humanitarian Demining Robotics in Off-Road Environments
- Title(参考訳): MineInsight:オフロード環境での人道支援ロボットのためのマルチセンサーデータセット
- Authors: Mario Malizia, Charles Hamesse, Ken Hasselmann, Geert De Cubber, Nikolaos Tsiogkas, Eric Demeester, Rob Haelterman,
- Abstract要約: 我々は,地雷検出のためのマルチセンサ,マルチスペクトルデータセットであるMineInsightを紹介した。
データセットには3つの異なるトラックに沿って分散された35の異なるターゲットがあり、多様で現実的なテスト環境を提供する。
MineInsightは地雷検出アルゴリズムの開発と評価のベンチマークとして機能する。
- 参考スコア(独自算出の注目度): 0.5339846068056558
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The use of robotics in humanitarian demining increasingly involves computer vision techniques to improve landmine detection capabilities. However, in the absence of diverse and realistic datasets, the reliable validation of algorithms remains a challenge for the research community. In this paper, we introduce MineInsight, a publicly available multi-sensor, multi-spectral dataset designed for off-road landmine detection. The dataset features 35 different targets (15 landmines and 20 commonly found objects) distributed along three distinct tracks, providing a diverse and realistic testing environment. MineInsight is, to the best of our knowledge, the first dataset to integrate dual-view sensor scans from both an Unmanned Ground Vehicle and its robotic arm, offering multiple viewpoints to mitigate occlusions and improve spatial awareness. It features two LiDARs, as well as images captured at diverse spectral ranges, including visible (RGB, monochrome), visible short-wave infrared (VIS-SWIR), and long-wave infrared (LWIR). Additionally, the dataset comes with an estimation of the location of the targets, offering a benchmark for evaluating detection algorithms. We recorded approximately one hour of data in both daylight and nighttime conditions, resulting in around 38,000 RGB frames, 53,000 VIS-SWIR frames, and 108,000 LWIR frames. MineInsight serves as a benchmark for developing and evaluating landmine detection algorithms. Our dataset is available at https://github.com/mariomlz99/MineInsight.
- Abstract(参考訳): 人道的破壊におけるロボットの使用は、地雷検出能力を改善するためのコンピュータビジョン技術にますます関与している。
しかし、多様で現実的なデータセットがないため、アルゴリズムの信頼性の高い検証は研究コミュニティにとって依然として課題である。
本稿では,オフロード地雷検出のためのマルチセンサ・マルチスペクトルデータセットであるMineInsightを紹介する。
データセットには35の異なるターゲット(地雷15個、通常見つかる20個の物体)が3つの異なるトラックに沿って分散しており、多様な現実的なテスト環境を提供している。
MineInsightは、私たちの知る限りでは、無人地上車両とロボットアームの両方からデュアルビューセンサースキャンを統合する最初のデータセットであり、オクルージョンを緩和し、空間認識を改善するための複数の視点を提供する。
2つのLiDARと、可視光(RGB、モノクローム)、可視短波赤外(VIS-SWIR)、長波赤外(LWIR)を含む様々なスペクトル範囲で撮影された画像が特徴である。
さらに、データセットはターゲットの位置を推定し、検出アルゴリズムを評価するためのベンチマークを提供する。
その結果、約38,000のRGBフレーム、53,000のVIS-SWIRフレーム、108,000のLWIRフレームが得られた。
MineInsightは地雷検出アルゴリズムの開発と評価のベンチマークとして機能する。
私たちのデータセットはhttps://github.com/mariomlz99/MineInsightで公開されています。
関連論文リスト
- OmniUnet: A Multimodal Network for Unstructured Terrain Segmentation on Planetary Rovers Using RGB, Depth, and Thermal Imagery [0.5837061763460748]
この研究は、RGB、深さ、熱画像を用いたセマンティックセグメンテーションのためのトランスフォーマーベースのニューラルネットワークアーキテクチャであるOmniUnetを提示する。
カスタム・マルチモーダル・センサー・ハウジングは3Dプリンティングを使用して開発され、マーチャン・ローバー・テストベッド・フォー・オートノミーに搭載された。
このデータセットのサブセットは手動でラベル付けされ、ネットワークの教師付きトレーニングをサポートする。
推論テストでは、リソース制約されたコンピュータで平均673msの予測時間を得た。
論文 参考訳(メタデータ) (2025-08-01T12:23:29Z) - Multistream Network for LiDAR and Camera-based 3D Object Detection in Outdoor Scenes [59.78696921486972]
LiDARとRGBデータの融合により、屋外の3Dオブジェクト検出精度が向上する可能性がある。
両データモダリティからタスク関連情報を的確に抽出するMultiStream Detection (MuStD) ネットワークを提案する。
論文 参考訳(メタデータ) (2025-07-25T14:20:16Z) - HoloMine: A Synthetic Dataset for Buried Landmines Recognition using Microwave Holographic Imaging [6.431432627253589]
本稿では,埋設地雷検出のための新しい合成データセットを提案する。
データセットは、41,800個のマイクロ波ホログラフィック画像(2D)と、さまざまな種類の埋没物体のホログラフィック反転スキャン(3D)で構成されている。
各種分類タスクのための合成データセットを用いて学習したいくつかの最先端ディープラーニングモデルの性能評価を行った。
論文 参考訳(メタデータ) (2025-02-28T13:53:35Z) - RAD: A Dataset and Benchmark for Real-Life Anomaly Detection with Robotic Observations [18.23500204496233]
Realistic Anomaly Detection データセット(RAD)は、実際のロボットアームを使用して特別に収集された最初のマルチビューRGBベースの異常検出データセットである。
RADは、13のカテゴリにわたる4765のイメージと、50以上の視点から収集された4つの欠陥タイプで構成されている。
ポーズ推定の精度を向上し、3次元点雲の再構成を容易にするためのデータ拡張手法を提案する。
論文 参考訳(メタデータ) (2024-10-01T14:05:35Z) - RoboSense: Large-scale Dataset and Benchmark for Egocentric Robot Perception and Navigation in Crowded and Unstructured Environments [62.5830455357187]
我々は3種類のセンサー(Camera, LiDAR, Fisheye)をベースとした自我中心型マルチセンサデータ収集プラットフォームを構築した。
大規模なマルチモーダルデータセットであるRoboSenseは、エゴセントリックなロボット知覚を促進するために構築されている。
論文 参考訳(メタデータ) (2024-08-28T03:17:40Z) - M3LEO: A Multi-Modal, Multi-Label Earth Observation Dataset Integrating Interferometric SAR and Multispectral Data [1.4053129774629076]
M3LEOはマルチモーダルでマルチラベルの地球観測データセットである。
6つの地理的領域から約17M 4x4 kmのデータチップにまたがる。
論文 参考訳(メタデータ) (2024-06-06T16:30:41Z) - DIDLM: A SLAM Dataset for Difficult Scenarios Featuring Infrared, Depth Cameras, LIDAR, 4D Radar, and Others under Adverse Weather, Low Light Conditions, and Rough Roads [20.600516423425688]
積雪天候,雨天,夜間条件,スピードバンプ,荒地など,困難なシナリオをカバーするマルチセンサデータセットを提案する。
このデータセットには、4Dミリ波レーダー、赤外線カメラ、深度カメラなどの極端な状況に利用されないセンサーと、3D LiDAR、RGBカメラ、GPS、IMUが含まれる。
自律走行と地上ロボットの両方のアプリケーションをサポートし、構造化された地形と半構造化された地形をカバーする信頼性の高いGPS/INS地上真実データを提供する。
論文 参考訳(メタデータ) (2024-04-15T09:49:33Z) - OSDaR23: Open Sensor Data for Rail 2023 [0.0]
OSDaR23は2021年9月にドイツのハンブルクで取得された45のサブシーケンスのマルチセンサーデータセットである。
データセットには204091のポリリン、多角形、長方形、立方形アノテーションが含まれており、合計で20の異なるオブジェクトクラスがある。
これは、鉄道コンテキストに関連するさまざまなオブジェクトクラスを持つ、初めて公開されたマルチセンサーアノテーション付きデータセットである。
論文 参考訳(メタデータ) (2023-05-04T17:19:47Z) - Multimodal Dataset from Harsh Sub-Terranean Environment with Aerosol
Particles for Frontier Exploration [55.41644538483948]
本稿では, エアロゾル粒子を用いた過酷で非構造的な地下環境からのマルチモーダルデータセットを提案する。
ロボットオペレーティング・システム(ROS)フォーマットのすべてのオンボードセンサーから、同期された生データ計測を含んでいる。
本研究の焦点は、時間的・空間的なデータの多様性を捉えることだけでなく、取得したデータに厳しい条件が及ぼす影響を示すことである。
論文 参考訳(メタデータ) (2023-04-27T20:21:18Z) - The LuViRA Dataset: Synchronized Vision, Radio, and Audio Sensors for Indoor Localization [41.58739817444644]
データセットには、カラー画像、対応する深度マップ、慣性測定ユニット(IMU)読み取り、5Gの大規模マルチインプットとMIMO(Multiple-output)テストベッドとユーザ機器のチャネル応答が含まれる。
これらのセンサーを同期させて、すべてのデータが同時に記録されるようにします。
このデータセットの主な目的は、ローカライゼーションタスクに最もよく使用されるセンサーとのセンサー融合の研究を可能にすることである。
論文 参考訳(メタデータ) (2023-02-10T15:12:40Z) - Towards Multimodal Multitask Scene Understanding Models for Indoor
Mobile Agents [49.904531485843464]
本稿では,現実世界の屋内環境におけるラベル付きデータの不十分,あるいは不可能,といった主な課題について論じる。
MMISM (Multi-modality input Multi-task output Indoor Scene Understanding Model) について述べる。
MMISMは、RGB画像だけでなく、スパースライダーポイントを入力と3Dオブジェクト検出、深さ完了、人間のポーズ推定、セマンティックセグメンテーションを出力タスクとみなしている。
MMISMはシングルタスクモデルよりも同等かそれ以上の性能を示す。
論文 参考訳(メタデータ) (2022-09-27T04:49:19Z) - Fully Sparse 3D Object Detection [57.05834683261658]
長距離LiDARオブジェクト検出のためのフルスパース3Dオブジェクト検出器(FSD)を構築した。
FSDは一般的なスパース・ボクセル・エンコーダと新しいスパース・インスタンス認識(SIR)モジュール上に構築されている。
SIRは、ポイントをインスタンスにグループ化することで、以前のポイントベースのメソッドでの待ち行列クエリを避ける。
論文 参考訳(メタデータ) (2022-07-20T17:01:33Z) - M2DGR: A Multi-sensor and Multi-scenario SLAM Dataset for Ground Robots [22.767094281397746]
M2DGR(M2DGR)は、センサースーツを備えた地上ロボットによって収集された、新しい大規模データセットである。
データセットは、屋内環境と屋外環境の両方を含む様々なシナリオでキャプチャされた36のシーケンスから構成される。
研究コミュニティの利益のために、データセットとツールを公開します。
論文 参考訳(メタデータ) (2021-12-19T12:37:09Z) - Domain and Modality Gaps for LiDAR-based Person Detection on Mobile
Robots [91.01747068273666]
本稿では,移動ロボットのシナリオに着目した既存のLiDAR人物検出装置について検討する。
実験は3Dと2D LiDARのセンサー間のモダリティのギャップだけでなく、運転と移動ロボットのシナリオ間の領域ギャップを回避している。
その結果、LiDARに基づく人物検出の実践的な洞察を与え、関連する移動ロボットの設計と応用に関する情報決定を容易にする。
論文 参考訳(メタデータ) (2021-06-21T16:35:49Z) - Drone-based RGB-Infrared Cross-Modality Vehicle Detection via
Uncertainty-Aware Learning [59.19469551774703]
ドローンによる車両検出は、空中画像中の車両の位置とカテゴリーを見つけることを目的としている。
我々はDroneVehicleと呼ばれる大規模ドローンベースのRGB赤外線車両検出データセットを構築した。
私たちのDroneVehicleは28,439RGBの赤外線画像を収集し、都市道路、住宅地、駐車場、その他のシナリオを昼から夜までカバーしています。
論文 参考訳(メタデータ) (2020-03-05T05:29:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。