論文の概要: AgroBench: Vision-Language Model Benchmark in Agriculture
- arxiv url: http://arxiv.org/abs/2507.20519v1
- Date: Mon, 28 Jul 2025 04:58:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-29 16:23:57.860223
- Title: AgroBench: Vision-Language Model Benchmark in Agriculture
- Title(参考訳): AgroBench:ビジョンランゲージモデルベンチマーク
- Authors: Risa Shinoda, Nakamasa Inoue, Hirokatsu Kataoka, Masaki Onishi, Yoshitaka Ushiku,
- Abstract要約: AgroBenchは、視覚言語モデル(VLM)を7つの農業トピックにわたって評価するためのベンチマークである。
私たちのAgroBenchは、203の作物カテゴリと682の病気カテゴリを含む最先端のカテゴリをカバーし、VLM能力を徹底的に評価しています。
- 参考スコア(独自算出の注目度): 25.52955831089068
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Precise automated understanding of agricultural tasks such as disease identification is essential for sustainable crop production. Recent advances in vision-language models (VLMs) are expected to further expand the range of agricultural tasks by facilitating human-model interaction through easy, text-based communication. Here, we introduce AgroBench (Agronomist AI Benchmark), a benchmark for evaluating VLM models across seven agricultural topics, covering key areas in agricultural engineering and relevant to real-world farming. Unlike recent agricultural VLM benchmarks, AgroBench is annotated by expert agronomists. Our AgroBench covers a state-of-the-art range of categories, including 203 crop categories and 682 disease categories, to thoroughly evaluate VLM capabilities. In our evaluation on AgroBench, we reveal that VLMs have room for improvement in fine-grained identification tasks. Notably, in weed identification, most open-source VLMs perform close to random. With our wide range of topics and expert-annotated categories, we analyze the types of errors made by VLMs and suggest potential pathways for future VLM development. Our dataset and code are available at https://dahlian00.github.io/AgroBenchPage/ .
- Abstract(参考訳): 病気の特定などの農業作業の正確な自動理解は、持続可能な作物生産に不可欠である。
視覚言語モデル(VLM)の最近の進歩は、簡単なテキストベースのコミュニケーションを通じて、人間とモデルの相互作用を促進することによって、農業タスクの範囲をさらに広げることが期待されている。
AgroBench (Agronomist AI Benchmark)は、7つの農業トピックにわたるVLMモデルの評価ベンチマークであり、農業工学の重要領域と現実世界の農業に関連する分野をカバーしている。
最近の農業用VLMベンチマークとは異なり、AgroBenchは専門家の農学者によって注釈付けされている。
我々のAgroBenchは、203の作物カテゴリと682の病気カテゴリを含む最先端のカテゴリをカバーし、VLM能力を徹底的に評価しています。
AgroBenchの評価において、VLMはきめ細かい識別タスクを改善する余地があることを明らかにする。
特に雑草の識別では、ほとんどのオープンソースVLMはランダムに近い性能を示す。
幅広いトピックや専門家による注釈付きカテゴリを用いて,VLMのエラーの種類を分析し,将来的なVLM開発のための潜在的な経路を提案する。
私たちのデータセットとコードはhttps://dahlian00.github.io/AgroBenchPage/で公開されています。
関連論文リスト
- Can Large Multimodal Models Understand Agricultural Scenes? Benchmarking with AgroMind [16.96145027280737]
我々は農業リモートセンシング(RS)のベンチマークであるAgroMindを紹介する。
AgroMindは、空間知覚、オブジェクト理解、シーン理解、シーン推論の4つのタスクディメンションをカバーしている。
AgroMind上で18のオープンソースLMMと3つのクローズドソースモデルを評価する。
論文 参考訳(メタデータ) (2025-05-18T02:45:19Z) - Agri-LLaVA: Knowledge-Infused Large Multimodal Assistant on Agricultural Pests and Diseases [49.782064512495495]
農業分野における最初のマルチモーダル・インストラクション・フォロー・データセットを構築した。
このデータセットは、約40万のデータエントリを持つ221種類以上の害虫と病気をカバーしている。
本稿では,農業用マルチモーダル対話システムであるAgri-LLaVAを開発するための知識注入型学習手法を提案する。
論文 参考訳(メタデータ) (2024-12-03T04:34:23Z) - AgroGPT: Efficient Agricultural Vision-Language Model with Expert Tuning [30.034193330398292]
本稿では,農業領域における視覚のみのデータを活用した指導調整データの構築手法を提案する。
我々は、複数のドメインにまたがる多様な農業データセットを利用し、クラス固有の情報をキュレートし、大規模言語モデル(LLM)を用いてエキスパートチューニングセットを構築する。
AgroGPTは、複雑な農業関連の会話を処理し、有用な洞察を提供する効率的なLMMである。
論文 参考訳(メタデータ) (2024-10-10T22:38:26Z) - Leveraging Vision Language Models for Specialized Agricultural Tasks [19.7240633020344]
本稿では,植物ストレス表現におけるビジョン言語モデルの能力を評価するためのベンチマークであるAgEvalを紹介する。
本研究は,ドメイン固有のタスクに対して汎用的なVLMをどのように活用できるかを,いくつかの注釈付き例で検討する。
以上の結果から,VLMの特殊タスクへの適応性は,F1スコアが46.24%から73.37%に向上した。
論文 参考訳(メタデータ) (2024-07-29T00:39:51Z) - Generating Diverse Agricultural Data for Vision-Based Farming Applications [74.79409721178489]
このモデルは, 植物の成長段階, 土壌条件の多様性, 照明条件の異なるランダム化フィールド配置をシミュレートすることができる。
我々のデータセットにはセマンティックラベル付き12,000の画像が含まれており、精密農業におけるコンピュータビジョンタスクの包括的なリソースを提供する。
論文 参考訳(メタデータ) (2024-03-27T08:42:47Z) - PhenoBench -- A Large Dataset and Benchmarks for Semantic Image Interpretation in the Agricultural Domain [29.395926321984565]
本稿では,実際の農業分野の意味論的解釈のための注釈付きデータセットとベンチマークを提案する。
UAVで記録したデータセットは、作物や雑草の高品質でピクセル単位のアノテーションを提供するだけでなく、作物の葉のインスタンスも同時に提供する。
異なるフィールドで構成された隠れテストセット上で、さまざまなタスクのベンチマークを提供する。
論文 参考訳(メタデータ) (2023-06-07T16:04:08Z) - Empowering Agrifood System with Artificial Intelligence: A Survey of the Progress, Challenges and Opportunities [86.89427012495457]
我々は、AI技術がアグリフードシステムをどう変え、現代のアグリフード産業に貢献するかをレビューする。
本稿では,農業,畜産,漁業において,アグリフードシステムにおけるAI手法の進歩について概説する。
我々は、AIで現代のアグリフードシステムを変革するための潜在的な課題と有望な研究機会を強調します。
論文 参考訳(メタデータ) (2023-05-03T05:16:54Z) - Domain Generalization for Crop Segmentation with Standardized Ensemble Knowledge Distillation [42.39035033967183]
サービスロボットは、周囲を理解し、野生のターゲットを識別するリアルタイム認識システムが必要です。
しかし、既存の方法はしばしば、新しい作物や環境条件への一般化において不足している。
本稿では,知識蒸留を用いた領域一般化手法を提案する。
論文 参考訳(メタデータ) (2023-04-03T14:28:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。