論文の概要: MatchPlant: An Open-Source Pipeline for UAV-Based Single-Plant Detection and Data Extraction
- arxiv url: http://arxiv.org/abs/2506.12295v1
- Date: Sat, 14 Jun 2025 01:09:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-17 17:28:45.698617
- Title: MatchPlant: An Open-Source Pipeline for UAV-Based Single-Plant Detection and Data Extraction
- Title(参考訳): MatchPlant: UAVベースのシングルプラン検出とデータ抽出のためのオープンソースのパイプライン
- Authors: Worasit Sangjan, Piyush Pandey, Norman B. Best, Jacob D. Washburn,
- Abstract要約: そこで本研究では,UAVを用いた単一プラント検出と地理空間特性抽出のための,モジュール型でグラフィカルなユーザインタフェースをサポートするオープンソースのPythonパイプラインであるMatchPlantを提案する。
MatchPlantは、UAV画像処理、ユーザガイド付きアノテーション、オブジェクト検出のためのConal Neural Networkモデルトレーニング、正規モザイクへのバウンディングボックスの前方投影、表現型解析のためのシェープファイル生成を統合することで、エンドツーエンドを可能にする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Accurate identification of individual plants from unmanned aerial vehicle (UAV) images is essential for advancing high-throughput phenotyping and supporting data-driven decision-making in plant breeding. This study presents MatchPlant, a modular, graphical user interface-supported, open-source Python pipeline for UAV-based single-plant detection and geospatial trait extraction. MatchPlant enables end-to-end workflows by integrating UAV image processing, user-guided annotation, Convolutional Neural Network model training for object detection, forward projection of bounding boxes onto an orthomosaic, and shapefile generation for spatial phenotypic analysis. In an early-season maize case study, MatchPlant achieved reliable detection performance (validation AP: 89.6%, test AP: 85.9%) and effectively projected bounding boxes, covering 89.8% of manually annotated boxes with 87.5% of projections achieving an Intersection over Union (IoU) greater than 0.5. Trait values extracted from predicted bounding instances showed high agreement with manual annotations (r = 0.87-0.97, IoU >= 0.4). Detection outputs were reused across time points to extract plant height and Normalized Difference Vegetation Index with minimal additional annotation, facilitating efficient temporal phenotyping. By combining modular design, reproducibility, and geospatial precision, MatchPlant offers a scalable framework for UAV-based plant-level analysis with broad applicability in agricultural and environmental monitoring.
- Abstract(参考訳): 無人航空機(UAV)画像からの個々の植物の正確な識別は、植物の育種における高スループット表現型化とデータ駆動意思決定を支援するために不可欠である。
そこで本研究では,UAVを用いた単一プラント検出と地理空間特性抽出のための,モジュール型でグラフィカルなユーザインタフェースをサポートするオープンソースのPythonパイプラインであるMatchPlantを提案する。
MatchPlantは、UAV画像処理、ユーザガイド付きアノテーション、オブジェクト検出のための畳み込みニューラルネットワークモデルトレーニング、正統語へのバウンディングボックスの前方投影、空間表現型解析のためのシェープファイル生成を統合して、エンドツーエンドのワークフローを可能にする。
早期シーズンのトウモロコシケーススタディにおいて、MatchPlantは信頼性の高い検出性能(検証AP:89.6%、テストAP:85.9%)と効果的に投影されたバウンディングボックスを達成した。
予測境界インスタンスから抽出したトラト値は手動アノテーションと高い一致を示した(r = 0.87-0.97, IoU >= 0.4)。
検出出力は時間点を通じて再利用され,植物の高さと正規化差植生指数を最小限の付加アノテーションで抽出し,時間的表現の効率を向上した。
モジュール設計、再現性、地理空間的精度を組み合わせることで、MatchPlantは、農業および環境モニタリングに広く適用可能な、UAVベースの植物レベル分析のためのスケーラブルなフレームワークを提供する。
関連論文リスト
- Open-Set Deepfake Detection: A Parameter-Efficient Adaptation Method with Forgery Style Mixture [58.60915132222421]
本稿では,顔偽造検出に汎用的かつパラメータ効率の高い手法を提案する。
フォージェリー・ソース・ドメインの多様性を増大させるフォージェリー・ミックス・フォーミュレーションを設計する。
設計したモデルは、トレーニング可能なパラメータを著しく減らし、最先端の一般化性を実現する。
論文 参考訳(メタデータ) (2024-08-23T01:53:36Z) - ODGEN: Domain-specific Object Detection Data Generation with Diffusion Models [21.158266387658905]
本稿では,境界ボックスに条件付き高品質な画像を生成する新しい方法であるODGENを提案する。
まず, 収穫した前景オブジェクトと画像全体を対象分布に合わせるために, 事前学習した拡散モデルを微調整する。
次に,空間的制約とオブジェクト指向のテキスト記述を伴って合成された視覚的ロバスト性プロンプトを用いて拡散モデルを制御することを提案する。
論文 参考訳(メタデータ) (2024-05-24T04:10:34Z) - Individual mapping of large polymorphic shrubs in high mountains using satellite images and deep learning [1.6889377382676625]
我々は、自由に利用可能な衛星画像について、個々の低木デラインの大規模なデータセットをリリースする。
我々は、すべてのジュニパーを、全生物圏保護区のツリーライン上にマッピングするために、インスタンスセグメンテーションモデルを使用します。
我々のモデルは、PIデータで87.87%、FWデータで76.86%の低木でF1スコアを達成した。
論文 参考訳(メタデータ) (2024-01-31T16:44:20Z) - Diffusion-Based Particle-DETR for BEV Perception [94.88305708174796]
Bird-Eye-View (BEV)は、自律走行車(AV)における視覚知覚のための最も広く使われているシーンの1つである。
近年の拡散法は、視覚知覚のための不確実性モデリングに有望なアプローチを提供するが、BEVの広い範囲において、小さな物体を効果的に検出することができない。
本稿では,BEVにおける拡散パラダイムと最先端の3Dオブジェクト検出器を組み合わせることで,この問題に対処する。
論文 参考訳(メタデータ) (2023-12-18T09:52:14Z) - Integrated Sensing, Computation, and Communication for UAV-assisted
Federated Edge Learning [52.7230652428711]
フェデレーションエッジ学習(FEEL)は、エッジデバイスとサーバ間の定期的な通信を通じて、プライバシ保護モデルトレーニングを可能にする。
無人航空機(UAV)搭載エッジデバイスは、効率的なデータ収集における柔軟性と移動性のため、FEELにとって特に有利である。
論文 参考訳(メタデータ) (2023-06-05T16:01:33Z) - Generative models-based data labeling for deep networks regression:
application to seed maturity estimation from UAV multispectral images [3.6868861317674524]
種子の成熟度モニタリングは、気候変動とより制限的な慣行による農業における課題の増加である。
従来の手法は、フィールドでの限られたサンプリングと実験室での分析に基づいている。
マルチスペクトルUAV画像を用いたパセリ種子の成熟度推定手法の提案と,自動ラベリングのための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-08-09T09:06:51Z) - End-to-end deep learning for directly estimating grape yield from
ground-based imagery [53.086864957064876]
本研究は, ブドウ畑の収量推定に深層学習と併用した近位画像の応用を実証する。
オブジェクト検出、CNN回帰、トランスフォーマーモデルという3つのモデルアーキテクチャがテストされた。
本研究は,ブドウの収量予測における近位画像と深層学習の適用性を示した。
論文 参考訳(メタデータ) (2022-08-04T01:34:46Z) - PnP-DETR: Towards Efficient Visual Analysis with Transformers [146.55679348493587]
近年、DeTRはトランスフォーマーを用いたソリューションビジョンタスクの先駆者であり、画像特徴マップを直接オブジェクト結果に変換する。
最近の変圧器を用いた画像認識モデルとTTは、一貫した効率向上を示す。
論文 参考訳(メタデータ) (2021-09-15T01:10:30Z) - Field-Based Plot Extraction Using UAV RGB Images [18.420863296523727]
無人航空機(UAV)は、トウモロコシやソルガムなどの畑型作物の植物性表現に使用されるようになった。
本稿では,UAV画像をプロットに分割するプロット抽出手法を提案する。
論文 参考訳(メタデータ) (2021-09-01T22:04:59Z) - DAAIN: Detection of Anomalous and Adversarial Input using Normalizing
Flows [52.31831255787147]
我々は、アウト・オブ・ディストリビューション(OOD)インプットと敵攻撃(AA)を検出する新しい手法であるDAINを導入する。
本手法は,ニューラルネットワークの内部動作を監視し,活性化分布の密度推定器を学習する。
当社のモデルは,特別なアクセラレータを必要とせずに,効率的な計算とデプロイが可能な単一のGPUでトレーニングすることが可能です。
論文 参考訳(メタデータ) (2021-05-30T22:07:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。