論文の概要: AgriChrono: A Multi-modal Dataset Capturing Crop Growth and Lighting Variability with a Field Robot
- arxiv url: http://arxiv.org/abs/2508.18694v1
- Date: Tue, 26 Aug 2025 05:39:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-27 17:42:38.691136
- Title: AgriChrono: A Multi-modal Dataset Capturing Crop Growth and Lighting Variability with a Field Robot
- Title(参考訳): AgriChrono: フィールドロボットによる作物の成長と光の変動を捉えるマルチモーダルデータセット
- Authors: Jaehwan Jeong, Tuan-Anh Vu, Mohammad Jony, Shahab Ahmad, Md. Mukhlesur Rahman, Sangpil Kim, M. Khalid Jawed,
- Abstract要約: 本稿では,AgriChronoについて紹介する。AgriChronoはロボットデータ収集プラットフォームであり,実世界の農業環境の動的条件を捉えるために設計されたマルチモーダルデータセットである。
当社のプラットフォームは,複数のセンサを統合し,RGB,Depth,LiDAR,IMUデータの遠隔時間同時取得を可能にする。
我々は、AgriChronoデータセット上で、最先端の3D再構成モデルをベンチマークし、現実世界のフィールド環境における再構築の難しさを強調した。
- 参考スコア(独自算出の注目度): 9.93207789073423
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Existing datasets for precision agriculture have primarily been collected in static or controlled environments such as indoor labs or greenhouses, often with limited sensor diversity and restricted temporal span. These conditions fail to reflect the dynamic nature of real farmland, including illumination changes, crop growth variation, and natural disturbances. As a result, models trained on such data often lack robustness and generalization when applied to real-world field scenarios. In this paper, we present AgriChrono, a novel robotic data collection platform and multi-modal dataset designed to capture the dynamic conditions of real-world agricultural environments. Our platform integrates multiple sensors and enables remote, time-synchronized acquisition of RGB, Depth, LiDAR, and IMU data, supporting efficient and repeatable long-term data collection across varying illumination and crop growth stages. We benchmark a range of state-of-the-art 3D reconstruction models on the AgriChrono dataset, highlighting the difficulty of reconstruction in real-world field environments and demonstrating its value as a research asset for advancing model generalization under dynamic conditions. The code and dataset are publicly available at: https://github.com/StructuresComp/agri-chrono
- Abstract(参考訳): 既存の精密農業用データセットは主に屋内実験室や温室のような静的または制御された環境で収集され、しばしばセンサーの多様性が制限され、時間的幅が制限されている。
これらの条件は、照明の変化、作物の生育の変化、自然の乱れなど、実際の農地の動的な性質を反映することができない。
結果として、そのようなデータに基づいてトレーニングされたモデルは、実世界のフィールドシナリオに適用した場合、堅牢性や一般化を欠くことが多い。
本稿では,AgriChronoについて紹介する。AgriChronoは,現実世界の農業環境の動的環境を捉えるために設計された,新しいロボットデータ収集プラットフォームとマルチモーダルデータセットである。
当社のプラットフォームは複数のセンサを統合し,RGB,Depth,LiDAR,IMUデータの遠隔同時取得を可能にする。
我々は、AgriChronoデータセット上で最先端の3D再構成モデルをベンチマークし、現実のフィールド環境における再構成の難しさを強調し、動的条件下でのモデル一般化を促進するための研究資産としての価値を示す。
コードとデータセットは、https://github.com/StructuresComp/agri-chronoで公開されている。
関連論文リスト
- EarthView: A Large Scale Remote Sensing Dataset for Self-Supervision [72.84868704100595]
本稿では,地球モニタリングタスクにおける深層学習アプリケーションを強化することを目的とした,リモートセンシングデータの自己監督を目的としたデータセットを提案する。
このデータセットは15テラピクセルのグローバルリモートセンシングデータにまたがっており、NEON、Sentinel、Satellogicによる1mの空間解像度データの新たなリリースなど、さまざまなソースの画像を組み合わせている。
このデータセットは、リモートセンシングデータの異なる課題に取り組むために開発されたMasked Autoencoderである。
論文 参考訳(メタデータ) (2025-01-14T13:42:22Z) - RaSim: A Range-aware High-fidelity RGB-D Data Simulation Pipeline for Real-world Applications [55.24463002889]
我々は深度データ合成に焦点をあて、レンジ対応RGB-Dデータシミュレーションパイプライン(RaSim)を開発した。
特に、実世界のセンサーの撮像原理を模倣して高忠実度深度データを生成する。
RaSimは、下流のRGB-D知覚タスクで微調整をすることなく、現実世界のシナリオに直接適用することができる。
論文 参考訳(メタデータ) (2024-04-05T08:52:32Z) - Generating Diverse Agricultural Data for Vision-Based Farming Applications [74.79409721178489]
このモデルは, 植物の成長段階, 土壌条件の多様性, 照明条件の異なるランダム化フィールド配置をシミュレートすることができる。
我々のデータセットにはセマンティックラベル付き12,000の画像が含まれており、精密農業におけるコンピュータビジョンタスクの包括的なリソースを提供する。
論文 参考訳(メタデータ) (2024-03-27T08:42:47Z) - An Open-World, Diverse, Cross-Spatial-Temporal Benchmark for Dynamic Wild Person Re-Identification [58.5877965612088]
人物再識別(ReID)は、データ駆動のディープラーニング技術のおかげで大きな進歩を遂げました。
既存のベンチマークデータセットには多様性がなく、これらのデータに基づいてトレーニングされたモデルは、動的なワイルドシナリオに対してうまく一般化できない。
OWDと呼ばれる新しいOpen-World, Diverse, Cross-Spatial-Temporalデータセットを開発した。
論文 参考訳(メタデータ) (2024-03-22T11:21:51Z) - LiveHPS: LiDAR-based Scene-level Human Pose and Shape Estimation in Free
Environment [59.320414108383055]
シーンレベルの人間のポーズと形状推定のための単一LiDARに基づく新しいアプローチであるLiveHPSを提案する。
多様な人間のポーズを伴う様々なシナリオで収集される巨大な人間の動きデータセットFreeMotionを提案する。
論文 参考訳(メタデータ) (2024-02-27T03:08:44Z) - ConstScene: Dataset and Model for Advancing Robust Semantic Segmentation
in Construction Environments [1.4070907500169874]
本稿では,建設現場に適したセマンティックセグメンテーションデータセットを提案する。
このデータセットは、オブジェクト検出モデルのトレーニングと評価を強化するように設計されている。
論文 参考訳(メタデータ) (2023-12-27T10:49:19Z) - Multimodal Dataset for Localization, Mapping and Crop Monitoring in
Citrus Tree Farms [7.666806082770633]
このデータセットは、深度情報を備えたステレオRGB画像と、モノクロ、近赤外線、熱画像を提供する。
データセットは、キツネの3つの畑で収集された7つの配列から構成される。
総運転時間は1.7時間、走行距離は7.5km、データ量は1.3TBである。
論文 参考訳(メタデータ) (2023-09-27T00:30:08Z) - Scalable Modular Synthetic Data Generation for Advancing Aerial Autonomy [2.9005223064604078]
本稿では,自律飛行に適したスケーラブルなAerial Synthetic Data Augmentation (ASDA) フレームワークを提案する。
ASDAは、シーンとデータ拡張を自動的に実行する2つのスクリプト可能なパイプラインを備えた中央データ収集エンジンを拡張している。
多様なデータセットを自動生成する手法の有効性を実証する。
論文 参考訳(メタデータ) (2022-11-10T04:37:41Z) - TRoVE: Transforming Road Scene Datasets into Photorealistic Virtual
Environments [84.6017003787244]
本研究では、シミュレーションデータセットに存在する困難とドメインギャップに対処する合成データ生成パイプラインを提案する。
既存のデータセットからアノテーションや視覚的手がかりを利用すれば、自動マルチモーダルデータ生成が容易になることを示す。
論文 参考訳(メタデータ) (2022-08-16T20:46:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。