論文の概要: Vision Foundation Models in Agriculture: Toward Domain-Specific Adaptation for Weed Herbicide Trials Assessment
- arxiv url: http://arxiv.org/abs/2511.04288v1
- Date: Thu, 06 Nov 2025 11:30:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-07 20:17:53.406018
- Title: Vision Foundation Models in Agriculture: Toward Domain-Specific Adaptation for Weed Herbicide Trials Assessment
- Title(参考訳): 農業におけるビジョンファウンデーションモデル:雑草除草剤試験評価のためのドメイン特化適応に向けて
- Authors: Leire Benito-Del-Valle, Artzai Picón, Daniel Mugica, Manuel Ramos, Eva Portillo, Javier Romero, Carlos Javier Jimenez, Ramón Navarra-Mestre,
- Abstract要約: 除草剤試験は、植物種の正確な同定と除草剤による損傷の評価を必要とする。
本研究では,除草剤の試薬評価に汎用的視覚基盤モデルを適用した。
大規模でキュレートされた農業データセットに対して、自己教師付き学習アプローチを用いてトレーニングされたモデルは、除草剤試薬画像に最適化されたリッチで移動可能な表現を学習する。
- 参考スコア(独自算出の注目度): 1.8430060563461854
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Herbicide field trials require accurate identification of plant species and assessment of herbicide-induced damage across diverse environments. While general-purpose vision foundation models have shown promising results in complex visual domains, their performance can be limited in agriculture, where fine-grained distinctions between species and damage types are critical. In this work, we adapt a general-purpose vision foundation model to herbicide trial characterization. Trained using a self-supervised learning approach on a large, curated agricultural dataset, the model learns rich and transferable representations optimized for herbicide trials images. Our domain-specific model significantly outperforms the best general-purpose foundation model in both species identification (F1 score improvement from 0.91 to 0.94) and damage classification (from 0.26 to 0.33). Under unseen conditions (new locations and other time), it achieves even greater gains (species identification from 0.56 to 0.66; damage classification from 0.17 to 0.27). In domain-shift scenarios, such as drone imagery, it maintains strong performance (species classification from 0.49 to 0.60). Additionally, we show that domain-specific pretraining enhances segmentation accuracy, particularly in low-annotation regimes. An annotation-efficiency analysis reveals that, under unseen conditions, the domain-specific model achieves 5.4% higher F1 score than the general-purpose model, while using 80% fewer labeled samples. These results demonstrate the generalization capabilities of domain-specific foundation models and their potential to significantly reduce manual annotation efforts, offering a scalable and automated solution for herbicide trial analysis.
- Abstract(参考訳): 除草剤試験は、植物種の正確な同定と、様々な環境における除草剤による損傷の評価を必要とする。
汎用視覚基盤モデルは複雑な視覚領域において有望な結果を示したが、その性能は農業において制限され、種と損傷の微妙な区別が重要である。
本研究では,除草剤の試薬評価に汎用的視覚基盤モデルを適用した。
大規模でキュレートされた農業データセットに対して、自己教師付き学習アプローチを用いてトレーニングされたモデルは、除草剤試薬画像に最適化されたリッチで移動可能な表現を学習する。
ドメイン固有モデルでは, 両種の識別(F1スコアの改善(0.91から0.94)と損傷分類(0.26から0.33)において, 汎用基盤モデルよりも有意に優れていた。
目に見えない条件(新しい場所や他の時間)では、さらに大きな利得を達成する(種は0.56から0.66、損傷分類は0.17から0.27)。
ドローン画像のようなドメインシフトのシナリオでは、強い性能を維持している(種別0.49から0.60)。
さらに、ドメイン固有の事前訓練は、特に低アノテーション体制において、セグメンテーションの精度を高めることを示す。
アノテーション効率分析により、ドメイン固有モデルは一般的なモデルよりもF1スコアが5.4%高く、ラベル付きサンプルは80%少ないことがわかった。
これらの結果は、ドメイン固有の基礎モデルの一般化能力と、手動アノテーションの取り組みを大幅に削減する可能性を示し、除草剤試薬分析のためのスケーラブルで自動化されたソリューションを提供する。
関連論文リスト
- Handling imbalance and few-sample size in ML based Onion disease classification [1.3177681589844814]
タマネギの作物病および害虫の多種分類のための頑健な深層学習モデルを提案する。
実世界のフィールド画像データセットに96.90%の精度と0.96のF1スコアを与えるモデルを与える。
論文 参考訳(メタデータ) (2025-09-01T19:05:39Z) - Weed Detection in Challenging Field Conditions: A Semi-Supervised Framework for Overcoming Shadow Bias and Data Scarcity [7.019137213828947]
本研究は、診断駆動型半教師付きフレームワークにより、両方の問題に取り組む。
我々は、サトウキビのギニアグラスのラベル付き画像に約975枚と1万枚をラベル付けしたユニークなデータセットを使用します。
我々の研究は、堅牢なコンピュータビジョンシステムの開発、診断、改善のための明確でフィールドテストされたフレームワークを提供する。
論文 参考訳(メタデータ) (2025-08-27T01:55:47Z) - From Field to Drone: Domain Drift Tolerant Automated Multi-Species and Damage Plant Semantic Segmentation for Herbicide Trials [1.0483690290582848]
本稿では,植物分類に基づく階層的推論を用いた汎用的自己教師型視覚モデルを提案する。
このモデルでは種同定(F1-score: 0.52 - 0.85, R-squared: 0.75 - 0.98)と損傷分類(F1-score: 0.28 - 0.44, R-squared: 0.71 - 0.87)を大幅に改善した。
現在はBASFの表現型パイプラインにデプロイされており、大規模で自動化された作物や雑草のモニタリングが多様な地理的に可能である。
論文 参考訳(メタデータ) (2025-08-11T00:08:42Z) - Intrinsic Explainability of Multimodal Learning for Crop Yield Prediction [36.766406330345525]
マルチモーダル学習ネットワークを説明するために,トランスフォーマーベースモデルの本質的な説明性を活用する。
本研究は,サブフィールドレベルでの収量予測の課題に焦点を当てた。
論文 参考訳(メタデータ) (2025-08-09T11:09:10Z) - PlantSAM: An Object Detection-Driven Segmentation Pipeline for Herbarium Specimens [0.5339846068056558]
植物領域検出のための YOLOv10 とセグメンテーションのための Segment Anything Model (SAM2) を統合した自動セグメンテーションパイプラインである PlantSAM を紹介する。
YOLOv10はSAM2を誘導するバウンディングボックスプロンプトを生成し、セグメンテーション精度を高める。
PlantSAMは最先端のセグメンテーション性能を達成し、IoUは0.94、Dice係数は0.97である。
論文 参考訳(メタデータ) (2025-07-22T12:02:39Z) - BeetleVerse: A Study on Taxonomic Classification of Ground Beetles [0.310688583550805]
地上の甲虫は、非常に敏感で特異な生物学的指標であり、生物多様性のモニタリングに不可欠である。
本稿では,4つの多種多様な長い尾を持つデータセットの分類分類に関する12の視覚モデルを評価する。
その結果,視覚と言語変換器を頭部と組み合わせたモデルが最も優れており,97%の精度で種・種レベルでの精度が得られた。
論文 参考訳(メタデータ) (2025-04-18T01:06:37Z) - Phikon-v2, A large and public feature extractor for biomarker prediction [42.52549987351643]
我々は、DINOv2を用いて視覚変換器を訓練し、このモデルの1つのイテレーションを公開して、Phikon-v2と呼ばれるさらなる実験を行う。
Phikon-v2は、公開されている組織学のスライドをトレーニングしながら、以前リリースしたモデル(Phikon)を上回り、プロプライエタリなデータでトレーニングされた他の病理学基盤モデル(FM)と同等に動作します。
論文 参考訳(メタデータ) (2024-09-13T20:12:29Z) - BonnBeetClouds3D: A Dataset Towards Point Cloud-based Organ-level Phenotyping of Sugar Beet Plants under Field Conditions [28.79416825695514]
農業生産は今後数十年間、気候変動と持続可能性の必要性によって深刻な課題に直面している。
自律無人航空機(UAV)による作物のモニタリングと、ロボットによる非化学雑草によるフィールド管理の進歩は、これらの課題に対処するのに有用である。
表現型化と呼ばれる植物形質の分析は、植物の育種に不可欠な活動であるが、大量の手作業が伴う。
論文 参考訳(メタデータ) (2023-12-22T14:06:44Z) - On the Out of Distribution Robustness of Foundation Models in Medical
Image Segmentation [47.95611203419802]
視覚と言語の基礎は、様々な自然画像とテキストデータに基づいて事前訓練されており、有望なアプローチとして現れている。
一般化性能を,同じ分布データセット上で微調整した後,事前学習した各種モデルの未確認領域と比較した。
さらに,凍結モデルに対する新しいベイズ不確実性推定法を開発し,分布外データに基づくモデルの性能評価指標として利用した。
論文 参考訳(メタデータ) (2023-11-18T14:52:10Z) - End-to-end deep learning for directly estimating grape yield from
ground-based imagery [53.086864957064876]
本研究は, ブドウ畑の収量推定に深層学習と併用した近位画像の応用を実証する。
オブジェクト検出、CNN回帰、トランスフォーマーモデルという3つのモデルアーキテクチャがテストされた。
本研究は,ブドウの収量予測における近位画像と深層学習の適用性を示した。
論文 参考訳(メタデータ) (2022-08-04T01:34:46Z) - Two-View Fine-grained Classification of Plant Species [66.75915278733197]
本研究では,2視点の葉のイメージ表現に基づく新しい手法と,植物種の粒度認識のための階層的分類戦略を提案する。
シームズ畳み込みニューラルネットワークに基づく深度測定は、多数のトレーニングサンプルへの依存を減らし、新しい植物種に拡張性を持たせるために用いられる。
論文 参考訳(メタデータ) (2020-05-18T21:57:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。