論文の概要: DepthCropSeg++: Scaling a Crop Segmentation Foundation Model With Depth-Labeled Data
- arxiv url: http://arxiv.org/abs/2601.12366v1
- Date: Sun, 18 Jan 2026 11:51:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:22.598138
- Title: DepthCropSeg++: Scaling a Crop Segmentation Foundation Model With Depth-Labeled Data
- Title(参考訳): DepthCropSeg++:depth-labeledデータによるCrop Segmentation Foundationモデルのスケーリング
- Authors: Jiafei Zhang, Songliang Cao, Binghui Xu, Yanan Li, Weiwei Jia, Tingting Wu, Hao Lu, Weijuan Hu, Zhiguo Han,
- Abstract要約: DepthCropSeg++は作物のセグメンテーションの基礎モデルであり、オープンフィールド環境下で異なる作物種をセグメンテーションすることができる。
最先端のセマンティックセグメンテーションアーキテクチャであるViT-Adapterアーキテクチャを構築し、動的 UpAdapterアーキテクチャで拡張し、2段階の自己学習パイプラインでモデルをトレーニングする。
結果は、DepthCropSeg++が包括的なテストセットで93.11%のmoUを達成したことを示している。
- 参考スコア(独自算出の注目度): 8.868203469534269
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: DepthCropSeg++: a foundation model for crop segmentation, capable of segmenting different crop species under open in-field environment. Crop segmentation is a fundamental task for modern agriculture, which closely relates to many downstream tasks such as plant phenotyping, density estimation, and weed control. In the era of foundation models, a number of generic large language and vision models have been developed. These models have demonstrated remarkable real world generalization due to significant model capacity and largescale datasets. However, current crop segmentation models mostly learn from limited data due to expensive pixel-level labelling cost, often performing well only under specific crop types or controlled environment. In this work, we follow the vein of our previous work DepthCropSeg, an almost unsupervised approach to crop segmentation, to scale up a cross-species and crossscene crop segmentation dataset, with 28,406 images across 30+ species and 15 environmental conditions. We also build upon a state-of-the-art semantic segmentation architecture ViT-Adapter architecture, enhance it with dynamic upsampling for improved detail awareness, and train the model with a two-stage selftraining pipeline. To systematically validate model performance, we conduct comprehensive experiments to justify the effectiveness and generalization capabilities across multiple crop datasets. Results demonstrate that DepthCropSeg++ achieves 93.11% mIoU on a comprehensive testing set, outperforming both supervised baselines and general-purpose vision foundation models like Segmentation Anything Model (SAM) by significant margins (+0.36% and +48.57% respectively). The model particularly excels in challenging scenarios including night-time environment (86.90% mIoU), high-density canopies (90.09% mIoU), and unseen crop varieties (90.09% mIoU), indicating a new state of the art for crop segmentation.
- Abstract(参考訳): DepthCropSeg++: 異なる作物種をオープンフィールド環境下でセグメンテーションできる、作物のセグメンテーションの基礎モデル。
作物のセグメンテーションは、植物表現、密度推定、雑草の制御など、下流の多くのタスクと密接に関連している、現代の農業の基本的な課題である。
基礎モデルの時代には、多くの汎用的な大規模言語とビジョンモデルが開発されてきた。
これらのモデルは、大きなモデルキャパシティと大規模なデータセットのために、目覚ましい現実世界の一般化を実証している。
しかし、現在の作物のセグメンテーションモデルは、高価なピクセルレベルのラベル付けコストのために、限られたデータから学習し、しばしば特定の作物タイプや制御された環境下でのみよく機能する。
本研究では,30種以上の種と15の環境条件で28,406枚の画像を持つクロス種およびクロスシーン作物のセグメンテーションデータセットをスケールアップする,ほとんど教師なしの作物セグメンテーションアプローチであるDepthCropSegを追究する。
また、最先端セマンティックセマンティックセグメンテーションアーキテクチャのViT-Adapterアーキテクチャを構築し、ダイナミックなアップサンプリングによって詳細認識を改善し、2段階の自己学習パイプラインでモデルをトレーニングする。
モデルの性能を体系的に検証するため,複数の作物データセットにまたがる有効性と一般化能力を正当化するための総合的な実験を行った。
結果は、DepthCropSeg++が包括的なテストセットで93.11% mIoUを達成し、Segmentation Anything Model (SAM)のような教師付きベースラインと汎用ビジョン基盤モデルの両方を、それぞれ大きなマージン(+0.36%と+48.57%)で上回ったことを示している。
このモデルは特に夜間環境(86.90% mIoU)、高密度のキャノピー(90.09% mIoU)、目に見えない作物の品種(90.09% mIoU)などの挑戦的なシナリオに優れており、作物の分断のための新しい最先端技術を示している。
関連論文リスト
- From Semantic To Instance: A Semi-Self-Supervised Learning Approach [6.092973123903838]
本稿では,高パフォーマンスなインスタンスセグメンテーションモデルを開発するために,最小限の手動アノテーションを必要とする半自己教師型学習手法を提案する。
GLMaskは、色特徴への依存を最小限に抑えつつ、形状、テクスチャ、パターンにフォーカスするモデルのためのイメージマスク表現である。
提案手法は従来のインスタンスセグメンテーションモデルを大幅に上回り、mAP@50の98.5%の最先端の小麦ヘッドインスタンスセグメンテーションモデルを確立する。
論文 参考訳(メタデータ) (2025-06-19T19:38:01Z) - RemoteSAM: Towards Segment Anything for Earth Observation [29.707796048411705]
我々は、地球観測のための頑健でフレキシブルな視覚基盤モデルを開発することを目指している。
多様な視覚的目標を認識し、位置を特定する能力を持つべきである。
いくつかの地球観測知覚ベンチマークで新しいSoTAを確立する基盤モデルであるRemoteSAMを提案する。
論文 参考訳(メタデータ) (2025-05-23T15:27:57Z) - SMPLest-X: Ultimate Scaling for Expressive Human Pose and Shape Estimation [81.36747103102459]
表現的人間のポーズと形状推定(EHPS)は、身体、手、顔の動きを多数の応用で統合する。
現在の最先端の手法は、限定されたデータセット上で革新的なアーキテクチャ設計を訓練することに焦点を当てている。
本稿では,EHPSのスケールアップが一般基盤モデルのファミリに与える影響について検討する。
論文 参考訳(メタデータ) (2025-01-16T18:59:46Z) - Concept Drift and Long-Tailed Distribution in Fine-Grained Visual Categorization: Benchmark and Method [84.68818879525568]
コンセプションドリフトとLong-Tailed Distributionデータセットを提案する。
インスタンスの特徴は時間によって異なり、長い尾の分布を示す傾向がある。
本稿ではCDLTに関連する学習課題に対処する機能組換えフレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-04T12:42:45Z) - Agave crop segmentation and maturity classification with deep learning
data-centric strategies using very high-resolution satellite imagery [101.18253437732933]
超高解像度衛星画像を用いたAgave tequilana Weber azul crop segmentation and mature classificationを提案する。
実世界の深層学習問題を,作物の選別という非常に具体的な文脈で解決する。
結果として得られた正確なモデルにより、大規模地域で生産予測を行うことができる。
論文 参考訳(メタデータ) (2023-03-21T03:15:29Z) - MSeg: A Composite Dataset for Multi-domain Semantic Segmentation [100.17755160696939]
セマンティックセグメンテーションデータセットを異なるドメインから統合する合成データセットであるMSegを提案する。
一般化と画素レベルのアノテーションのアライメントを調整し,2万枚以上のオブジェクトマスクを8万枚以上の画像で再現する。
MSegでトレーニングされたモデルは、WildDash-v1のリーダーボードで、トレーニング中にWildDashのデータに触れることなく、堅牢なセマンティックセグメンテーションのためにランク付けされている。
論文 参考訳(メタデータ) (2021-12-27T16:16:35Z) - Salient Objects in Clutter [130.63976772770368]
本稿では,既存の正当性オブジェクト検出(SOD)データセットの重大な設計バイアスを特定し,対処する。
この設計バイアスは、既存のデータセットで評価した場合、最先端のSODモデルのパフォーマンスの飽和につながった。
我々は,新しい高品質データセットを提案し,前回のsaliencyベンチマークを更新する。
論文 参考訳(メタデータ) (2021-05-07T03:49:26Z) - Multi-Spectral Image Synthesis for Crop/Weed Segmentation in Precision
Farming [3.4788711710826083]
本稿では, 精密農業における作物・雑草の分枝化問題に適用し, 共通データ増分法に関する代替手法を提案する。
我々は、最も関連性の高いオブジェクトクラス(作物や雑草)を合成されたクラスに置き換えることで、半人工的なサンプルを作成する。
RGBデータに加えて、近赤外(NIR)情報も考慮し、4つのチャネルマルチスペクトル合成画像を生成する。
論文 参考訳(メタデータ) (2020-09-12T08:49:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。