論文の概要: WalnutData: A UAV Remote Sensing Dataset of Green Walnuts and Model Evaluation
- arxiv url: http://arxiv.org/abs/2502.20092v3
- Date: Tue, 04 Mar 2025 14:00:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-05 12:13:50.264562
- Title: WalnutData: A UAV Remote Sensing Dataset of Green Walnuts and Model Evaluation
- Title(参考訳): WalnutData:グリーンウォルナッツのUAVリモートセンシングデータセットとモデル評価
- Authors: Mingjie Wu, Chenggui Yang, Huihua Wang, Chen Xue, Yibo Wang, Haoyu Wang, Yansong Wang, Can Peng, Yuqi Han, Ruoyu Li, Lijun Yun, Zaiqing Chen, Yuelong Xia,
- Abstract要約: 農業コンピュータービジョンの分野では、緑のクルミに関連するデータセットは存在しない。
我々はUAVを用いて、8つのクルミサンプルプロットからリモートセンシングデータを収集した。
このデータセットには合計30,240イメージと706,208インスタンスが含まれている。
- 参考スコア(独自算出の注目度): 16.38267436684755
- License:
- Abstract: The UAV technology is gradually maturing and can provide extremely powerful support for smart agriculture and precise monitoring. Currently, there is no dataset related to green walnuts in the field of agricultural computer vision. Thus, in order to promote the algorithm design in the field of agricultural computer vision, we used UAV to collect remote-sensing data from 8 walnut sample plots. Considering that green walnuts are subject to various lighting conditions and occlusion, we constructed a large-scale dataset with a higher-granularity of target features - WalnutData. This dataset contains a total of 30,240 images and 706,208 instances, and there are 4 target categories: being illuminated by frontal light and unoccluded (A1), being backlit and unoccluded (A2), being illuminated by frontal light and occluded (B1), and being backlit and occluded (B2). Subsequently, we evaluated many mainstream algorithms on WalnutData and used these evaluation results as the baseline standard. The dataset and all evaluation results can be obtained at https://github.com/1wuming/WalnutData.
- Abstract(参考訳): UAV技術は徐々に成熟しており、スマート農業と精密なモニタリングに非常に強力な支援を提供することができる。
現在、農業コンピュータービジョンの分野では、緑のクルミに関連するデータセットは存在しない。
そこで,農業用コンピュータビジョンの分野でのアルゴリズム設計を促進するために,UAVを用いて8つのクルミサンプルプロットからリモートセンシングデータを収集した。
緑クルミが様々な照明条件と閉塞状態にあることを考慮し,ターゲット特徴の粒度の高い大規模データセット,WalnutDataを構築した。
このデータセットは、合計30,240枚の画像と706,208個のインスタンスを含み、前部光で照らされ(A1)、背部光で照らされ(A2)、前部光で照らされ(B1)、後部光で照らされ(B2)、後部光で照らされる(B2)の4つのターゲットカテゴリがある。
その後、WalnutData上で多くの主流アルゴリズムを評価し、これらの評価結果をベースライン標準として使用した。
データセットとすべての評価結果はhttps://github.com/1wuming/WalnutDataで取得できる。
関連論文リスト
- RSAR: Restricted State Angle Resolver and Rotated SAR Benchmark [61.987291551925516]
単位円制限損失を組み込んで角度予測精度を向上させるユニットサイクルリゾルバを導入する。
提案手法は,既存の最先端教師あり手法の性能を効果的に向上させることができる。
UCRの助けを借りて、これまでで最大の多クラス回転SARオブジェクト検出データセットであるRSARをさらに注釈し、導入する。
論文 参考訳(メタデータ) (2025-01-08T11:41:47Z) - Depth Anything: Unleashing the Power of Large-Scale Unlabeled Data [87.61900472933523]
この研究は、ロバストな単分子深度推定のための非常に実用的な解であるDepth Anythingを提示する。
データエンジンを設計し、大規模な未ラベルデータの収集と注釈付けを自動的に行うことにより、データセットをスケールアップします。
6つのパブリックデータセットとランダムにキャプチャされた写真を含む、ゼロショットの機能を広範囲に評価する。
論文 参考訳(メタデータ) (2024-01-19T18:59:52Z) - A Multi-purpose Real Haze Benchmark with Quantifiable Haze Levels and
Ground Truth [61.90504318229845]
本稿では,ハズフリー画像とその場でのハズ密度測定を併用した,最初の実画像ベンチマークデータセットを提案する。
このデータセットはコントロールされた環境で生成され、プロの煙発生装置がシーン全体を覆っている。
このデータセットのサブセットは、CVPR UG2 2022 チャレンジの Haze Track における Object Detection に使用されている。
論文 参考訳(メタデータ) (2022-06-13T19:14:06Z) - deepNIR: Datasets for generating synthetic NIR images and improved fruit
detection system using deep learning techniques [2.5191300830630126]
本稿では,合成近赤外(NIR)画像生成とバウンディングボックスレベルの果物検出システムに利用したデータセットを提案する。
11.36,26.53,40.15のFrechet Inception Distance(FID)をNirscene1,SEN12MS,甘辛料データセットでそれぞれ達成した。
データセットのバウンディングボックスの総数は162kで、クラウドサービスから使用可能である。
論文 参考訳(メタデータ) (2022-03-17T05:25:36Z) - Anchor-free Oriented Proposal Generator for Object Detection [59.54125119453818]
オブジェクト指向物体検出はリモートセンシング画像解釈において実用的で困難な課題である。
今日では、指向性検出器は主に水平方向の箱を中間体として使用し、それらから指向性のある箱を導出している。
本稿では,ネットワークアーキテクチャから水平ボックス関連操作を放棄する,AOPG(Anchor-free Oriented Proposal Generator)を提案する。
論文 参考訳(メタデータ) (2021-10-05T10:45:51Z) - Does it work outside this benchmark? Introducing the Rigid Depth
Constructor tool, depth validation dataset construction in rigid scenes for
the masses [1.294486861344922]
ナビゲーションのための独自の深度検証データセットを構築するためのプロトコルを紹介します。
Rigid Depth ConstructorのRCCは、既存の技術よりもアクセスしやすく、安価になることを目指している。
また,評価アルゴリズムから洞察力のある情報を得るためのテストスイートも開発した。
論文 参考訳(メタデータ) (2021-03-29T22:01:24Z) - Light Field Salient Object Detection: A Review and Benchmark [37.28938750278883]
本稿では,光電場SODの総合的なレビューとベンチマークを行う。
10の伝統的なモデル、7つのディープラーニングベースのモデル、1つの比較研究、1つの簡単なレビューがある。
広範に使用されている4つの光フィールドデータセット上で、9つの代表的な光フィールドSODモデルと、いくつかの最先端RGB-D SODモデルをベンチマークする。
論文 参考訳(メタデータ) (2020-10-10T10:30:40Z) - TORNADO-Net: mulTiview tOtal vaRiatioN semAntic segmentation with
Diamond inceptiOn module [23.112192919085825]
TORNADO-Netは、3D LiDARポイントクラウドセマンティックセグメンテーションのためのニューラルネットワークである。
我々は、エンコーダデコーダResNetアーキテクチャを用いて、多視点(バードアイとレンジ)投影特徴抽出を組み込んだ。
また、LiDARデータは360度視野を包含し、円形のパディングを使用するという事実も活用する。
論文 参考訳(メタデータ) (2020-08-24T16:32:41Z) - RGB-D Salient Object Detection: A Survey [195.83586883670358]
様々な観点からRGB-Dに基づくSODモデルを総合的に調査する。
また、このドメインからSODモデルと人気のあるベンチマークデータセットもレビューします。
今後の研究に向けたRGB-DベースのSODの課題と方向性について論じる。
論文 参考訳(メタデータ) (2020-08-01T10:01:32Z) - GraspNet: A Large-Scale Clustered and Densely Annotated Dataset for
Object Grasping [49.777649953381676]
我々は,統合評価システムを用いた大規模グリップポーズ検出データセットに貢献する。
データセットには87,040枚のRGBD画像と3億7000万枚以上のグリップポーズが含まれている。
論文 参考訳(メタデータ) (2019-12-31T18:15:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。