論文の概要: From Field to Drone: Domain Drift Tolerant Automated Multi-Species and Damage Plant Semantic Segmentation for Herbicide Trials
- arxiv url: http://arxiv.org/abs/2508.07514v1
- Date: Mon, 11 Aug 2025 00:08:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-12 21:23:28.891342
- Title: From Field to Drone: Domain Drift Tolerant Automated Multi-Species and Damage Plant Semantic Segmentation for Herbicide Trials
- Title(参考訳): フィールドからドローンへ:除草剤試験におけるドメインドリフト耐性の多種自動および損傷植物セマンティックセマンティックセグメンテーション
- Authors: Artzai Picon, Itziar Eguskiza, Daniel Mugica, Javier Romero, Carlos Javier Jimenez, Eric White, Gabriel Do-Lago-Junqueira, Christian Klukas, Ramon Navarra-Mestre,
- Abstract要約: 本稿では,植物分類に基づく階層的推論を用いた汎用的自己教師型視覚モデルを提案する。
このモデルでは種同定(F1-score: 0.52 - 0.85, R-squared: 0.75 - 0.98)と損傷分類(F1-score: 0.28 - 0.44, R-squared: 0.71 - 0.87)を大幅に改善した。
現在はBASFの表現型パイプラインにデプロイされており、大規模で自動化された作物や雑草のモニタリングが多様な地理的に可能である。
- 参考スコア(独自算出の注目度): 1.0483690290582848
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Field trials are vital in herbicide research and development to assess effects on crops and weeds under varied conditions. Traditionally, evaluations rely on manual visual assessments, which are time-consuming, labor-intensive, and subjective. Automating species and damage identification is challenging due to subtle visual differences, but it can greatly enhance efficiency and consistency. We present an improved segmentation model combining a general-purpose self-supervised visual model with hierarchical inference based on botanical taxonomy. Trained on a multi-year dataset (2018-2020) from Germany and Spain using digital and mobile cameras, the model was tested on digital camera data (year 2023) and drone imagery from the United States, Germany, and Spain (year 2024) to evaluate robustness under domain shift. This cross-device evaluation marks a key step in assessing generalization across platforms of the model. Our model significantly improved species identification (F1-score: 0.52 to 0.85, R-squared: 0.75 to 0.98) and damage classification (F1-score: 0.28 to 0.44, R-squared: 0.71 to 0.87) over prior methods. Under domain shift (drone images), it maintained strong performance with moderate degradation (species: F1-score 0.60, R-squared 0.80; damage: F1-score 0.41, R-squared 0.62), where earlier models failed. These results confirm the model's robustness and real-world applicability. It is now deployed in BASF's phenotyping pipeline, enabling large-scale, automated crop and weed monitoring across diverse geographies.
- Abstract(参考訳): 除草剤の研究や開発において、様々な条件下での作物や雑草への影響を評価するために、フィールドトライアルは不可欠である。
伝統的に評価は、時間を要する、労働集約的で主観的な、手動による視覚的評価に依存している。
視覚的差異が微妙なため、種の自動識別と損傷識別は困難であるが、効率と一貫性を大幅に向上させる可能性がある。
本稿では,汎用的な視覚モデルと植物分類に基づく階層的推論を組み合わせたセグメンテーションモデルを提案する。
デジタルカメラとモバイルカメラを使用して、ドイツとスペインの複数年にわたるデータセット(2018-2020)に基づいて、このモデルは、デジタルカメラデータ(2023年)と、米国、ドイツ、スペイン(2024年)のドローン画像(2024年)でテストされ、ドメインシフトの下で堅牢性を評価した。
このクロスデバイス評価は、モデルのプラットフォーム間での一般化を評価するための重要なステップである。
本モデルでは, 従来法に比べて種同定(F1-score: 0.52 - 0.85, R-squared: 0.75 - 0.98)と損傷分類(F1-score: 0.28 - 0.44, R-squared: 0.71 - 0.87)が有意に改善した。
ドメインシフト(ドローン画像)の下では、適度な劣化(F1-score 0.60、R-squared 0.80、損傷:F1-score 0.41、R-squared 0.62)で強い性能を維持した。
これらの結果から,モデルの堅牢性と実世界の適用性が確認された。
現在はBASFの表現型パイプラインにデプロイされており、大規模で自動化された作物や雑草のモニタリングが多様な地理的に可能である。
関連論文リスト
- scDrugMap: Benchmarking Large Foundation Models for Drug Response Prediction [5.058966163642362]
scDrugMapはPythonのコマンドラインインターフェースと薬物反応予測のためのWebサーバを備えた統合フレームワークである。
scDrugMapは8つの単一セルモデルと2つの大きな言語モデルを含む、幅広い基礎モデルを評価する。
scDrugMapは、単一セルデータの薬物反応予測のための基礎モデルの大規模なベンチマークとして、初めてのものである。
論文 参考訳(メタデータ) (2025-05-08T19:46:19Z) - Enhancing Leaf Disease Classification Using GAT-GCN Hybrid Model [0.23301643766310373]
本研究では,葉病分類のためのグラフ注意ネットワーク(GAT)とグラフ畳み込みネットワーク(GCN)を組み合わせたハイブリッドモデルを提案する。
GCNはグラフ構造化データから学習するために広く使われており、GATは最も重要な隣人に焦点を当てるために注意機構を組み込むことによってこれを強化している。
エッジ拡張技術は、モデルの検知能力にかなりの一般化をもたらした。
論文 参考訳(メタデータ) (2025-04-07T06:31:38Z) - Segment-and-Classify: ROI-Guided Generalizable Contrast Phase Classification in CT Using XGBoost [7.689389068258514]
本研究は,別機関の3つの公開CTデータセットを利用した。
位相予測モデルはWAW-TACEデータセットに基づいてトレーニングされ、VinDr-MultiphaseとC4KC-KiTSデータセット上で検証された。
論文 参考訳(メタデータ) (2025-01-23T20:01:33Z) - Patch-Based and Non-Patch-Based inputs Comparison into Deep Neural Models: Application for the Segmentation of Retinal Diseases on Optical Coherence Tomography Volumes [0.3749861135832073]
AMDは、2040年までに2億8800万人に達すると予想されている。
ディープラーニングネットワークは、画像とピクセルレベルの2Dスキャンの分類において有望な結果を示している。
DSC測定値のパッチベースモデルが最も高いスコアは0.88であり、SRF流体セグメンテーションの非パッチベースでは0.71であった。
論文 参考訳(メタデータ) (2025-01-22T10:22:08Z) - Fluid: Scaling Autoregressive Text-to-image Generative Models with Continuous Tokens [53.99177152562075]
視覚における自己回帰モデルのスケールアップは、大きな言語モデルほど有益でないことが証明されている。
モデルが離散トークンを使用するか、連続トークンを使用するか、BERTやGPTのようなトランスフォーマーアーキテクチャを用いてランダムまたは固定順序でトークンを生成するか、という2つの重要な要素に焦点を当てる。
その結果,すべてのモデルが検証損失の点で効果的にスケールしているのに対して,評価性能はFID,GenEvalスコア,視覚的品質などによって異なる傾向を呈することがわかった。
論文 参考訳(メタデータ) (2024-10-17T17:59:59Z) - GREAT Score: Global Robustness Evaluation of Adversarial Perturbation using Generative Models [60.48306899271866]
GREATスコア(GREAT Score)と呼ばれる新しいフレームワークを提案する。
我々は,ロバストベンチにおける攻撃ベースモデルと比較し,高い相関性を示し,GREATスコアのコストを大幅に削減した。
GREAT Scoreは、プライバシーに敏感なブラックボックスモデルのリモート監査に使用することができる。
論文 参考訳(メタデータ) (2023-04-19T14:58:27Z) - Vision Transformers for femur fracture classification [59.99241204074268]
Vision Transformer (ViT) はテスト画像の83%を正確に予測することができた。
史上最大かつ最もリッチなデータセットを持つサブフラクチャーで良い結果が得られた。
論文 参考訳(メタデータ) (2021-08-07T10:12:42Z) - A CNN Approach to Simultaneously Count Plants and Detect Plantation-Rows
from UAV Imagery [56.10033255997329]
畳み込みニューラルネットワーク(CNN)を用いた新しい深層学習手法を提案する。
高度に乾燥したプランテーション構成を考慮した植物を数えながら、同時にプランテーション・ロウを検出し、配置する。
提案手法は、異なる種類の作物のUAV画像において、植物と植物をカウントおよびジオロケートするための最先端の性能を達成した。
論文 参考訳(メタデータ) (2020-12-31T18:51:17Z) - Deep Learning Frameworks for Pavement Distress Classification: A
Comparative Analysis [2.752817022620644]
本研究では,舗装の苦痛を検知し,特徴付けるための最先端のディープラーニングアルゴリズムをデプロイする。
モデルは、日本、チェコ、インドの都市部や農村部で撮影された21,041枚の画像を用いて訓練された。
最高のパフォーマンスモデルは、IEEE Global Road Damage Detection Challengeがリリースした2つのテストデータセットで、F1スコアの0.58と0.57を達成した。
論文 参考訳(メタデータ) (2020-10-21T00:26:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。