論文の概要: TasselNetV4: A vision foundation model for cross-scene, cross-scale, and cross-species plant counting
- arxiv url: http://arxiv.org/abs/2509.20857v1
- Date: Thu, 25 Sep 2025 07:48:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-26 20:58:12.766184
- Title: TasselNetV4: A vision foundation model for cross-scene, cross-scale, and cross-species plant counting
- Title(参考訳): TasselNetV4: クロスシーン,クロススケール,クロスタイプ植物カウントのためのビジョン基盤モデル
- Authors: Xiaonan Hu, Xuebing Li, Jinyu Xu, Abdulkadir Duran Adan, Letian Zhou, Xuhui Zhu, Yanan Li, Wei Guo, Shouyang Liu, Wenzhong Liu, Hao Lu,
- Abstract要約: 種別カウントから種間カウントに移行したTasselNetV4について紹介する。
普通の視覚変換器の上に構築され、新しいマルチブランチボックス対応のローカルカウンタが組み込まれている。
以上の結果から,タッセルネットV4はクロスシーン,クロススケール,クロスタイプ植物カウントのためのビジョン基盤モデルであることが示唆された。
- 参考スコア(独自算出の注目度): 10.520978148046026
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Accurate plant counting provides valuable information for agriculture such as crop yield prediction, plant density assessment, and phenotype quantification. Vision-based approaches are currently the mainstream solution. Prior art typically uses a detection or a regression model to count a specific plant. However, plants have biodiversity, and new cultivars are increasingly bred each year. It is almost impossible to exhaust and build all species-dependent counting models. Inspired by class-agnostic counting (CAC) in computer vision, we argue that it is time to rethink the problem formulation of plant counting, from what plants to count to how to count plants. In contrast to most daily objects with spatial and temporal invariance, plants are dynamic, changing with time and space. Their non-rigid structure often leads to worse performance than counting rigid instances like heads and cars such that current CAC and open-world detection models are suboptimal to count plants. In this work, we inherit the vein of the TasselNet plant counting model and introduce a new extension, TasselNetV4, shifting from species-specific counting to cross-species counting. TasselNetV4 marries the local counting idea of TasselNet with the extract-and-match paradigm in CAC. It builds upon a plain vision transformer and incorporates novel multi-branch box-aware local counters used to enhance cross-scale robustness. Two challenging datasets, PAC-105 and PAC-Somalia, are harvested. Extensive experiments against state-of-the-art CAC models show that TasselNetV4 achieves not only superior counting performance but also high efficiency.Our results indicate that TasselNetV4 emerges to be a vision foundation model for cross-scene, cross-scale, and cross-species plant counting.
- Abstract(参考訳): 正確な植物カウントは、作物収量予測、植物密度評価、表現型定量化などの農業にとって貴重な情報を提供する。
ビジョンベースのアプローチは現在主流のソリューションです。
先行技術は、通常、特定の植物を数えるために検出または回帰モデルを使用する。
しかし、植物には生物多様性があり、毎年新しい品種が育ちつつある。
あらゆる種に依存した数え上げモデルを構築して構築することはほとんど不可能である。
コンピュータビジョンにおけるクラス非依存カウント(CAC)にインスパイアされた我々は、どの植物を数えるかからどのように植物を数えるかに至るまで、植物を数える問題の定式化を再考するべき時であると論じている。
空間的および時間的不変性を持つほとんどの日常の物体とは対照的に、植物は動的であり、時間と空間によって変化する。
彼らの厳密でない構造は、現在のCACやオープンワールド検出モデルが植物を数えるのに最適であるような、ヘッドやカーなどの厳格なインスタンスを数えるよりもパフォーマンスが悪くなります。
本研究は,タッセルネット植物計数モデルの静脈を継承し,新たな拡張であるタッセルネットV4を導入し,種別計数から種間計数に移行した。
TasselNetV4は、ローカルカウンティングのアイデアをCACの抜粋とマッチのパラダイムと統合している。
通常の視覚変換器の上に構築され、クロススケールロバスト性を高めるために使用される、新しいマルチブランチボックス対応のローカルカウンタが組み込まれている。
PAC-105とPAC-Somaliaの2つの挑戦的なデータセットが収集されている。
現状のCACモデルに対する大規模な実験により,タッセルネットV4は優れた計数性能を達成できるだけでなく,高い効率を達成できることが示され,我々の結果は,タッセルネットV4がクロスシーン,クロススケール,クロスタイプ植物計数のためのビジョン基盤モデルとして現れることを示唆している。
関連論文リスト
- Multi-output Deep-Supervised Classifier Chains for Plant Pathology [12.004640584906666]
そこで我々は,2つのラベルの出力層を連鎖させることにより,植物種と病気の予測を織り込む,Multi-Supervised Chains (Mo-DsCC) という新しいモデルを提案する。
モデルの利点を評価するため、2つのベンチマークデータセットに対して集中的な実験を行う。
論文 参考訳(メタデータ) (2025-07-27T04:23:17Z) - CountMamba: Exploring Multi-directional Selective State-Space Models for Plant Counting [33.41299696340091]
植物カウントは、種子の育種、発芽、栽培、受精、受粉収量の推定、収穫など、農業のあらゆる段階において不可欠である。
逐次走査法により高分解能画像中の被写体を数えることに着想を得て, 状態空間モデル(SSM)を用いて植物計測タスクを処理し, 結果を生成する可能性を探る。
我々は,複数のカウント専門家が同時に様々な方向からスキャンできるように,CountMambaという新しいカウント手法を提案する。
論文 参考訳(メタデータ) (2024-10-10T01:52:57Z) - Concept Drift and Long-Tailed Distribution in Fine-Grained Visual Categorization: Benchmark and Method [84.68818879525568]
コンセプションドリフトとLong-Tailed Distributionデータセットを提案する。
インスタンスの特徴は時間によって異なり、長い尾の分布を示す傾向がある。
本稿ではCDLTに関連する学習課題に対処する機能組換えフレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-04T12:42:45Z) - CounTR: Transformer-based Generalised Visual Counting [94.54725247039441]
我々は任意の意味圏からオブジェクト数を数える計算モデルを開発し、任意の数の「例」を用いて計算する。
FSC-147のような大規模カウントベンチマークの徹底的なアブレーション研究を行い、ゼロおよび少数ショット設定の両方で最先端の性能を示す。
論文 参考訳(メタデータ) (2022-08-29T17:02:45Z) - Vision Transformers For Weeds and Crops Classification Of High
Resolution UAV Images [3.1083892213758104]
ビジョントランスフォーマー(ViT)モデルは、畳み込み操作を適用することなく、競争またはより良い結果を達成することができる。
実験の結果,ラベル付きトレーニングデータでは,最新のCNNモデルと比較して,ViTモデルの方が優れていた。
論文 参考訳(メタデータ) (2021-09-06T19:58:54Z) - A CNN Approach to Simultaneously Count Plants and Detect Plantation-Rows
from UAV Imagery [56.10033255997329]
畳み込みニューラルネットワーク(CNN)を用いた新しい深層学習手法を提案する。
高度に乾燥したプランテーション構成を考慮した植物を数えながら、同時にプランテーション・ロウを検出し、配置する。
提案手法は、異なる種類の作物のUAV画像において、植物と植物をカウントおよびジオロケートするための最先端の性能を達成した。
論文 参考訳(メタデータ) (2020-12-31T18:51:17Z) - One-Shot Learning with Triplet Loss for Vegetation Classification Tasks [45.82374977939355]
三重項損失関数は、ワンショット学習タスクの精度を大幅に向上できる選択肢の1つである。
2015年からは、多くのプロジェクトがシームズネットワークとこの種の損失を顔認識とオブジェクト分類に利用している。
論文 参考訳(メタデータ) (2020-12-14T10:44:22Z) - Unsupervised Domain Adaptation For Plant Organ Counting [12.424350934766704]
イメージベース植物表現型解析のための植物器官の計数はこのカテゴリに該当する。
本稿では,密度マップ推定の領域適応のための領域適応型学習手法を提案する。
論文 参考訳(メタデータ) (2020-09-02T13:57:09Z) - Two-View Fine-grained Classification of Plant Species [66.75915278733197]
本研究では,2視点の葉のイメージ表現に基づく新しい手法と,植物種の粒度認識のための階層的分類戦略を提案する。
シームズ畳み込みニューラルネットワークに基づく深度測定は、多数のトレーニングサンプルへの依存を減らし、新しい植物種に拡張性を持たせるために用いられる。
論文 参考訳(メタデータ) (2020-05-18T21:57:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。