論文の概要: Multimodal Dataset for Localization, Mapping and Crop Monitoring in
Citrus Tree Farms
- arxiv url: http://arxiv.org/abs/2309.15332v2
- Date: Fri, 29 Sep 2023 01:43:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-02 10:27:04.307058
- Title: Multimodal Dataset for Localization, Mapping and Crop Monitoring in
Citrus Tree Farms
- Title(参考訳): キツネ林における局在・マッピング・作物モニタリングのためのマルチモーダルデータセット
- Authors: Hanzhe Teng, Yipeng Wang, Xiaoao Song, Konstantinos Karydis
- Abstract要約: このデータセットは、深度情報を備えたステレオRGB画像と、モノクロ、近赤外線、熱画像を提供する。
データセットは、キツネの3つの畑で収集された7つの配列から構成される。
総運転時間は1.7時間、走行距離は7.5km、データ量は1.3TBである。
- 参考スコア(独自算出の注目度): 7.666806082770633
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work we introduce the CitrusFarm dataset, a comprehensive multimodal
sensory dataset collected by a wheeled mobile robot operating in agricultural
fields. The dataset offers stereo RGB images with depth information, as well as
monochrome, near-infrared and thermal images, presenting diverse spectral
responses crucial for agricultural research. Furthermore, it provides a range
of navigational sensor data encompassing wheel odometry, LiDAR, inertial
measurement unit (IMU), and GNSS with Real-Time Kinematic (RTK) as the
centimeter-level positioning ground truth. The dataset comprises seven
sequences collected in three fields of citrus trees, featuring various tree
species at different growth stages, distinctive planting patterns, as well as
varying daylight conditions. It spans a total operation time of 1.7 hours,
covers a distance of 7.5 km, and constitutes 1.3 TB of data. We anticipate that
this dataset can facilitate the development of autonomous robot systems
operating in agricultural tree environments, especially for localization,
mapping and crop monitoring tasks. Moreover, the rich sensing modalities
offered in this dataset can also support research in a range of robotics and
computer vision tasks, such as place recognition, scene understanding, object
detection and segmentation, and multimodal learning. The dataset, in
conjunction with related tools and resources, is made publicly available at
https://github.com/UCR-Robotics/Citrus-Farm-Dataset.
- Abstract(参考訳): 本研究は,農業分野で動作する車輪型移動ロボットが収集した総合的マルチモーダル感覚データセットであるcitrusfarmデータセットを紹介する。
このデータセットは、深度情報を備えたステレオRGB画像と、モノクローム、近赤外線、熱画像を提供し、農業研究に不可欠な多様なスペクトル応答を示す。
さらに、ホイール・オドメトリー、LiDAR、慣性測定ユニット(IMU)、リアルタイム・キネマティック(RTK)を用いたGNSSを含む航法センサデータをセンチメートルレベルの地上真実として提供する。
本データセットは, 生育段階の異なる木種, 独特の植林パターン, 日光条件の異なる木種を特徴とする, キツネの3つの畑で収集された7つの配列からなる。
総運転時間は1.7時間、走行距離は7.5km、データ量は1.3TBである。
このデータセットは、特に局在化、マッピング、作物モニタリングタスクにおいて、農業ツリー環境で動作する自律ロボットシステムの開発を容易にすることを期待する。
さらに、このデータセットで提供されるリッチセンシングモダリティは、場所認識、シーン理解、オブジェクト検出とセグメンテーション、マルチモーダル学習など、ロボット工学やコンピュータビジョンのタスクにおける研究を支援することもできる。
このデータセットは関連するツールやリソースとともにhttps://github.com/UCR-Robotics/Citrus-Farm-Datasetで公開されている。
関連論文リスト
- M3LEO: A Multi-Modal, Multi-Label Earth Observation Dataset Integrating Interferometric SAR and Multispectral Data [1.4053129774629076]
M3LEOはマルチモーダルでマルチラベルの地球観測データセットである。
6つの地理的領域から約17M 4x4 kmのデータチップにまたがる。
論文 参考訳(メタデータ) (2024-06-06T16:30:41Z) - VBR: A Vision Benchmark in Rome [1.71787484850503]
本稿では,RGBデータ,3次元点雲,IMU,GPSデータを含む,ローマで収集された視覚・知覚研究データセットについて述べる。
我々は、自律ロボット工学とコンピュータビジョンの研究を進めるために、視覚計測とSLAMをターゲットにした新しいベンチマークを導入する。
論文 参考訳(メタデータ) (2024-04-17T12:34:49Z) - MTMMC: A Large-Scale Real-World Multi-Modal Camera Tracking Benchmark [63.878793340338035]
マルチターゲットマルチカメラトラッキングは、複数のカメラからのビデオストリームを使用して個人を特定し、追跡する重要なタスクである。
このタスクの既存のデータセットは、制御されたカメラネットワーク設定内で合成または人工的に構築される。
我々は16台のマルチモーダルカメラで2つの異なる環境でキャプチャされた長いビデオシーケンスを含む実世界の大規模データセットであるMTMMCを紹介する。
論文 参考訳(メタデータ) (2024-03-29T15:08:37Z) - FoMo-Bench: a multi-modal, multi-scale and multi-task Forest Monitoring Benchmark for remote sensing foundation models [24.141443217910986]
第1回森林モニタリングベンチマーク(FoMo-Bench)について紹介する。
FoMo-Benchは、衛星、航空、在庫データを含む15の多様なデータセットで構成されている。
FoMo-Benchで表されるタスクや地理の多様性をさらに高めるため、我々は新しいグローバルデータセットであるTalloSを紹介した。
論文 参考訳(メタデータ) (2023-12-15T09:49:21Z) - Multimodal Dataset from Harsh Sub-Terranean Environment with Aerosol
Particles for Frontier Exploration [55.41644538483948]
本稿では, エアロゾル粒子を用いた過酷で非構造的な地下環境からのマルチモーダルデータセットを提案する。
ロボットオペレーティング・システム(ROS)フォーマットのすべてのオンボードセンサーから、同期された生データ計測を含んでいる。
本研究の焦点は、時間的・空間的なデータの多様性を捉えることだけでなく、取得したデータに厳しい条件が及ぼす影響を示すことである。
論文 参考訳(メタデータ) (2023-04-27T20:21:18Z) - Extended Agriculture-Vision: An Extension of a Large Aerial Image
Dataset for Agricultural Pattern Analysis [11.133807938044804]
農業ビジョンデータセットの改良版(Chiu et al., 2020b)をリリースする。
このデータセットは,3600大,高解像度(10cm/ピクセル),フルフィールド,赤緑色,近赤外画像の事前トレーニングにより拡張する。
下流分類とセマンティックセグメンテーションの両タスクにおいて、異なるコントラスト学習アプローチをベンチマークすることで、このデータの有用性を実証する。
論文 参考訳(メタデータ) (2023-03-04T17:35:24Z) - Argoverse 2: Next Generation Datasets for Self-Driving Perception and
Forecasting [64.7364925689825]
Argoverse 2(AV2)は、自動運転分野の研究の知覚と予測のための3つのデータセットの集合である。
Lidarデータセットには、ラベルなしのLidar点雲とマップ整列ポーズの2万のシーケンスが含まれている。
Motion Forecastingデータセットには、各ローカルシーンにおける自動運転車と他のアクター間の興味深い、挑戦的なインタラクションのために採掘された25万のシナリオが含まれている。
論文 参考訳(メタデータ) (2023-01-02T00:36:22Z) - Semantic Segmentation of Vegetation in Remote Sensing Imagery Using Deep
Learning [77.34726150561087]
本稿では,公開されているリモートセンシングデータからなるマルチモーダル・大規模時間データセットを作成するためのアプローチを提案する。
我々は、異なる種類の植生を分離できる畳み込みニューラルネットワーク(CNN)モデルを使用する。
論文 参考訳(メタデータ) (2022-09-28T18:51:59Z) - TRoVE: Transforming Road Scene Datasets into Photorealistic Virtual
Environments [84.6017003787244]
本研究では、シミュレーションデータセットに存在する困難とドメインギャップに対処する合成データ生成パイプラインを提案する。
既存のデータセットからアノテーションや視覚的手がかりを利用すれば、自動マルチモーダルデータ生成が容易になることを示す。
論文 参考訳(メタデータ) (2022-08-16T20:46:08Z) - A Survey on RGB-D Datasets [69.73803123972297]
本稿では,深度情報を含む画像データセットをレビューし,分類した。
アクセス可能なデータを含む203のデータセットを収集し、それらをシーン/オブジェクト、ボディ、医療の3つのカテゴリに分類しました。
論文 参考訳(メタデータ) (2022-01-15T05:35:19Z) - Agricultural Plant Cataloging and Establishment of a Data Framework from
UAV-based Crop Images by Computer Vision [4.0382342610484425]
本稿では,UAVからの収穫画像の時間的・空間的識別と識別を自動化するための手動ワークフローを提案する。
提案手法は農業におけるUAVデータの分析と解釈を大幅に改善する。
論文 参考訳(メタデータ) (2022-01-08T21:14:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。