論文の概要: The Rosario Dataset v2: Multimodal Dataset for Agricultural Robotics
- arxiv url: http://arxiv.org/abs/2508.21635v1
- Date: Fri, 29 Aug 2025 13:58:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-01 19:45:11.064009
- Title: The Rosario Dataset v2: Multimodal Dataset for Agricultural Robotics
- Title(参考訳): Rosario Dataset v2: 農業ロボットのためのマルチモーダルデータセット
- Authors: Nicolas Soncini, Javier Cremona, Erica Vidal, Maximiliano García, Gastón Castro, Taihú Pire,
- Abstract要約: このデータセットは、農業環境におけるロボット工学に固有の重要な課題を捉えている。
これらの複雑さに対処することで、データセットは高度なアルゴリズムの開発とベンチマークをサポートすることを目指している。
プラットフォームとデータ収集システムは,マルチモーダルSLAMシステムを評価する上で重要な要件を満たすように設計されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a multi-modal dataset collected in a soybean crop field, comprising over two hours of recorded data from sensors such as stereo infrared camera, color camera, accelerometer, gyroscope, magnetometer, GNSS (Single Point Positioning, Real-Time Kinematic and Post-Processed Kinematic), and wheel odometry. This dataset captures key challenges inherent to robotics in agricultural environments, including variations in natural lighting, motion blur, rough terrain, and long, perceptually aliased sequences. By addressing these complexities, the dataset aims to support the development and benchmarking of advanced algorithms for localization, mapping, perception, and navigation in agricultural robotics. The platform and data collection system is designed to meet the key requirements for evaluating multi-modal SLAM systems, including hardware synchronization of sensors, 6-DOF ground truth and loops on long trajectories. We run multimodal state-of-the art SLAM methods on the dataset, showcasing the existing limitations in their application on agricultural settings. The dataset and utilities to work with it are released on https://cifasis.github.io/rosariov2/.
- Abstract(参考訳): ダイズ畑で収集したマルチモーダルデータセットは,ステレオ赤外線カメラ,カラーカメラ,加速度計,ジャイロスコープ,磁力計,GNSS(シングルポイント測位,リアルタイム運動およびポストプロシーゼド運動),ホイールオドメトリーなどのセンサから得られた2時間以上のデータから構成される。
このデータセットは、自然の照明、動きのぼかし、荒い地形、そして長い知覚的エイリアス配列など、農業環境におけるロボット工学に固有の重要な課題を捉えている。
これらの複雑さに対処することで、このデータセットは、農業ロボット工学におけるローカライゼーション、マッピング、知覚、ナビゲーションのための高度なアルゴリズムの開発とベンチマークをサポートすることを目的としている。
このプラットフォームとデータ収集システムは、センサーのハードウェア同期、6-DOF地上真実、長い軌道上のループなど、マルチモーダルSLAMシステムを評価するための重要な要件を満たすように設計されている。
我々は、データセット上でマルチモーダルな最先端SLAMメソッドを実行し、農業環境における既存の制限を提示する。
データセットとユーティリティはhttps://cifasis.github.io/rosariov2/.comで公開されている。
関連論文リスト
- AgriChrono: A Multi-modal Dataset Capturing Crop Growth and Lighting Variability with a Field Robot [9.93207789073423]
本稿では,AgriChronoについて紹介する。AgriChronoはロボットデータ収集プラットフォームであり,実世界の農業環境の動的条件を捉えるために設計されたマルチモーダルデータセットである。
当社のプラットフォームは,複数のセンサを統合し,RGB,Depth,LiDAR,IMUデータの遠隔時間同時取得を可能にする。
我々は、AgriChronoデータセット上で、最先端の3D再構成モデルをベンチマークし、現実世界のフィールド環境における再構築の難しさを強調した。
論文 参考訳(メタデータ) (2025-08-26T05:39:47Z) - Multi-modal Multi-platform Person Re-Identification: Benchmark and Method [58.59888754340054]
MP-ReIDは、マルチモダリティとマルチプラットフォームReIDに特化した新しいデータセットである。
このベンチマークは、RGB、赤外線、サーマルイメージングなど、さまざまなモードで1,930のIDからデータをコンパイルする。
クロスモダリティとクロスプラットフォームシナリオに適した,特定設計のプロンプトを備えたフレームワークであるUni-Prompt ReIDを紹介する。
論文 参考訳(メタデータ) (2025-03-21T12:27:49Z) - EarthView: A Large Scale Remote Sensing Dataset for Self-Supervision [72.84868704100595]
本稿では,地球モニタリングタスクにおける深層学習アプリケーションを強化することを目的とした,リモートセンシングデータの自己監督を目的としたデータセットを提案する。
このデータセットは15テラピクセルのグローバルリモートセンシングデータにまたがっており、NEON、Sentinel、Satellogicによる1mの空間解像度データの新たなリリースなど、さまざまなソースの画像を組み合わせている。
このデータセットは、リモートセンシングデータの異なる課題に取り組むために開発されたMasked Autoencoderである。
論文 参考訳(メタデータ) (2025-01-14T13:42:22Z) - SCaRL- A Synthetic Multi-Modal Dataset for Autonomous Driving [0.0]
本稿では、自律運転ソリューションのトレーニングと検証を可能にするために、合成生成された新しいマルチモーダルデータセットであるSCaRLを提案する。
SCaRLはCARLA Simulatorに基づく大規模なデータセットであり、多様な動的シナリオとトラフィック条件のためのデータを提供する。
論文 参考訳(メタデータ) (2024-05-27T10:31:26Z) - VBR: A Vision Benchmark in Rome [1.71787484850503]
本稿では,RGBデータ,3次元点雲,IMU,GPSデータを含む,ローマで収集された視覚・知覚研究データセットについて述べる。
我々は、自律ロボット工学とコンピュータビジョンの研究を進めるために、視覚計測とSLAMをターゲットにした新しいベンチマークを導入する。
論文 参考訳(メタデータ) (2024-04-17T12:34:49Z) - MTMMC: A Large-Scale Real-World Multi-Modal Camera Tracking Benchmark [63.878793340338035]
マルチターゲットマルチカメラトラッキングは、複数のカメラからのビデオストリームを使用して個人を特定し、追跡する重要なタスクである。
このタスクの既存のデータセットは、制御されたカメラネットワーク設定内で合成または人工的に構築される。
我々は16台のマルチモーダルカメラで2つの異なる環境でキャプチャされた長いビデオシーケンスを含む実世界の大規模データセットであるMTMMCを紹介する。
論文 参考訳(メタデータ) (2024-03-29T15:08:37Z) - Multimodal Dataset for Localization, Mapping and Crop Monitoring in
Citrus Tree Farms [7.666806082770633]
このデータセットは、深度情報を備えたステレオRGB画像と、モノクロ、近赤外線、熱画像を提供する。
データセットは、キツネの3つの畑で収集された7つの配列から構成される。
総運転時間は1.7時間、走行距離は7.5km、データ量は1.3TBである。
論文 参考訳(メタデータ) (2023-09-27T00:30:08Z) - The LuViRA Dataset: Synchronized Vision, Radio, and Audio Sensors for Indoor Localization [41.58739817444644]
データセットには、カラー画像、対応する深度マップ、慣性測定ユニット(IMU)読み取り、5Gの大規模マルチインプットとMIMO(Multiple-output)テストベッドとユーザ機器のチャネル応答が含まれる。
これらのセンサーを同期させて、すべてのデータが同時に記録されるようにします。
このデータセットの主な目的は、ローカライゼーションタスクに最もよく使用されるセンサーとのセンサー融合の研究を可能にすることである。
論文 参考訳(メタデータ) (2023-02-10T15:12:40Z) - TRoVE: Transforming Road Scene Datasets into Photorealistic Virtual
Environments [84.6017003787244]
本研究では、シミュレーションデータセットに存在する困難とドメインギャップに対処する合成データ生成パイプラインを提案する。
既存のデータセットからアノテーションや視覚的手がかりを利用すれば、自動マルチモーダルデータ生成が容易になることを示す。
論文 参考訳(メタデータ) (2022-08-16T20:46:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。