論文の概要: A SAM-based Solution for Hierarchical Panoptic Segmentation of Crops and
Weeds Competition
- arxiv url: http://arxiv.org/abs/2309.13578v1
- Date: Sun, 24 Sep 2023 08:34:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-26 18:52:08.907970
- Title: A SAM-based Solution for Hierarchical Panoptic Segmentation of Crops and
Weeds Competition
- Title(参考訳): 作物・雑草競争の階層的パノプティックセグメンテーションのためのSAMに基づく解法
- Authors: Khoa Dang Nguyen, Thanh-Hai Phung, Hoang-Giang Cao
- Abstract要約: 本稿では,Segment AnyThing Model(SAM)のインスタンスセグメンテーションにおける有効性と,オブジェクト検出モデルからの迅速な入力を組み合わせたアプローチを提案する。
ベストパフォーマンスモデルでは,PQ+スコアが81.33であった。
- 参考スコア(独自算出の注目度): 2.7624021966289605
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Panoptic segmentation in agriculture is an advanced computer vision technique
that provides a comprehensive understanding of field composition. It
facilitates various tasks such as crop and weed segmentation, plant panoptic
segmentation, and leaf instance segmentation, all aimed at addressing
challenges in agriculture. Exploring the application of panoptic segmentation
in agriculture, the 8th Workshop on Computer Vision in Plant Phenotyping and
Agriculture (CVPPA) hosted the challenge of hierarchical panoptic segmentation
of crops and weeds using the PhenoBench dataset. To tackle the tasks presented
in this competition, we propose an approach that combines the effectiveness of
the Segment AnyThing Model (SAM) for instance segmentation with prompt input
from object detection models. Specifically, we integrated two notable
approaches in object detection, namely DINO and YOLO-v8. Our best-performing
model achieved a PQ+ score of 81.33 based on the evaluation metrics of the
competition.
- Abstract(参考訳): 農業におけるパンオプティカルセグメンテーション(panoptic segmentation in agriculture)は、フィールド構成の包括的理解を提供する高度なコンピュータビジョン技術である。
作物や雑草のセグメンテーション、植物パノプティクスのセグメンテーション、葉のインスタンスセグメンテーションなど、農業の課題に対処するための様々なタスクを促進する。
8th Workshop on Computer Vision in Plant Phenotyping and Agriculture (CVPPA)は、農業におけるパン光学のセグメンテーションの応用を探求し、PhenoBenchデータセットを用いた作物と雑草の階層的なパン光学セグメンテーションの挑戦を行った。
このコンペティションで提示される課題に取り組むために,セグメンテーションにおけるセグメント・エバンスモデル(sam)の有効性と,オブジェクト検出モデルからの迅速な入力を組み合わせる手法を提案する。
具体的には、DINOとYOLO-v8という2つの重要なオブジェクト検出手法を統合した。
ベストパフォーマンスモデルでは,PQ+スコアが81.33であった。
関連論文リスト
- AGSPNet: A framework for parcel-scale crop fine-grained semantic change
detection from UAV high-resolution imagery with agricultural geographic scene
constraints [1.9151076515142376]
本稿では,農業の地理的景観と農業用大規模制約付きSCDフレームワーク(AGSPNet)を提案する。
複雑な地理的景観における作物の複数の意味変化を包含する,農業モニタリング専用のUAV画像SCDデータセット(CSCD)を作成し,導入する。
以上の結果から,AGSPNet の収穫 SCD は,他の深層学習 SCD モデルよりも,量と品質の点で一貫して優れていた。
論文 参考訳(メタデータ) (2024-01-11T20:47:28Z) - Can SAM recognize crops? Quantifying the zero-shot performance of a
semantic segmentation foundation model on generating crop-type maps using
satellite imagery for precision agriculture [4.825257766966091]
クロップ型マップは意思決定支援ツールの重要な情報である。
本稿では,Meta AIのSegment Anything Model(SAM)の作物マップ予測機能について検討する。
SAMは最大3チャンネルの入力に制限されており、ゼロショットの使用は本質的にクラスに依存しない。
論文 参考訳(メタデータ) (2023-11-25T23:40:09Z) - Semantic-SAM: Segment and Recognize Anything at Any Granularity [83.64686655044765]
本稿では,任意の粒度でセグメンテーションと認識を可能にする汎用画像セグメンテーションモデルであるSemantic-SAMを紹介する。
複数のデータセットを3つの粒度に集約し、オブジェクトとパーツの分離した分類を導入する。
マルチグラニュラリティ機能を実現するために,各クリックで複数のレベルのマスクを生成できるマルチ選択学習方式を提案する。
論文 参考訳(メタデータ) (2023-07-10T17:59:40Z) - PhenoBench -- A Large Dataset and Benchmarks for Semantic Image
Interpretation in the Agricultural Domain [29.590872330449315]
実畑のイメージを意味論的に解釈するための大規模なデータセットとベンチマークを提示する。
UAVで記録したデータセットは、作物や雑草の高品質で密集したアノテーションを提供するだけでなく、作物の葉のきめ細かいラベルも提供します。
異なるフィールドからなる隠れテストセット上で、異なる視覚的知覚タスクを評価するための新しいベンチマークを提供する。
論文 参考訳(メタデータ) (2023-06-07T16:04:08Z) - AIMS: All-Inclusive Multi-Level Segmentation [93.5041381700744]
視覚領域を3つのレベル(パート、エンティティ、リレーション)に分割するタスクであるAll-Inclusive Multi-Level(AIMS)を提案する。
また、アノテーションの不整合とタスク相関の2つの大きな課題に対処するために、マルチデータセットのマルチタスクトレーニングを通じて統合されたAIMSモデルを構築します。
論文 参考訳(メタデータ) (2023-05-28T16:28:49Z) - Semantic Image Segmentation with Deep Learning for Vine Leaf Phenotyping [59.0626764544669]
本研究では,ブドウの葉のイメージを意味的にセグメント化するためにDeep Learning法を用いて,葉の表現型自動検出システムを開発した。
私たちの研究は、成長や開発のような動的な特性を捉え定量化できる植物ライフサイクルのモニタリングに寄与します。
論文 参考訳(メタデータ) (2022-10-24T14:37:09Z) - Hierarchical Approach for Joint Semantic, Plant Instance, and Leaf
Instance Segmentation in the Agricultural Domain [29.647846446064992]
植物表現型は、植物の成長段階、発達、その他の関連する量を記述するため、農業において中心的な課題である。
本稿では,RGBデータから作物の連接意味,植物インスタンス,葉のインスタンスセグメンテーションの問題に対処する。
本稿では,3つのタスクを同時に処理する単一畳み込みニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2022-10-14T15:01:08Z) - Pollen13K: A Large Scale Microscope Pollen Grain Image Dataset [63.05335933454068]
この研究は、1万3千以上の天体を含む最初の大規模花粉画像データセットを提示する。
本稿では, エアロバイオロジカルサンプリング, 顕微鏡画像取得, 物体検出, セグメンテーション, ラベル付けなど, 採用データ取得のステップに注目した。
論文 参考訳(メタデータ) (2020-07-09T10:33:31Z) - The 1st Agriculture-Vision Challenge: Methods and Results [144.57794061346974]
第1回農業ビジョンチャレンジは、航空画像から農業パターン認識のための新しい効果的なアルゴリズムの開発を奨励することを目的としている。
約57の参加チームが、航空農業のセマンティックセグメンテーションの最先端を達成するために競っている。
本報告では,課題における注目すべき手法と成果について概説する。
論文 参考訳(メタデータ) (2020-04-21T05:02:31Z) - Agriculture-Vision: A Large Aerial Image Database for Agricultural
Pattern Analysis [110.30849704592592]
本稿では,農業パターンのセマンティックセグメンテーションのための大規模空中農地画像データセットであるGarmry-Visionを提案する。
各画像はRGBと近赤外線(NIR)チャンネルで構成され、解像度は1ピクセルあたり10cmである。
農家にとって最も重要な9種類のフィールド異常パターンに注釈を付ける。
論文 参考訳(メタデータ) (2020-01-05T20:19:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。