論文の概要: A SAM-based Solution for Hierarchical Panoptic Segmentation of Crops and
Weeds Competition
- arxiv url: http://arxiv.org/abs/2309.13578v1
- Date: Sun, 24 Sep 2023 08:34:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-26 18:52:08.907970
- Title: A SAM-based Solution for Hierarchical Panoptic Segmentation of Crops and
Weeds Competition
- Title(参考訳): 作物・雑草競争の階層的パノプティックセグメンテーションのためのSAMに基づく解法
- Authors: Khoa Dang Nguyen, Thanh-Hai Phung, Hoang-Giang Cao
- Abstract要約: 本稿では,Segment AnyThing Model(SAM)のインスタンスセグメンテーションにおける有効性と,オブジェクト検出モデルからの迅速な入力を組み合わせたアプローチを提案する。
ベストパフォーマンスモデルでは,PQ+スコアが81.33であった。
- 参考スコア(独自算出の注目度): 2.7624021966289605
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Panoptic segmentation in agriculture is an advanced computer vision technique
that provides a comprehensive understanding of field composition. It
facilitates various tasks such as crop and weed segmentation, plant panoptic
segmentation, and leaf instance segmentation, all aimed at addressing
challenges in agriculture. Exploring the application of panoptic segmentation
in agriculture, the 8th Workshop on Computer Vision in Plant Phenotyping and
Agriculture (CVPPA) hosted the challenge of hierarchical panoptic segmentation
of crops and weeds using the PhenoBench dataset. To tackle the tasks presented
in this competition, we propose an approach that combines the effectiveness of
the Segment AnyThing Model (SAM) for instance segmentation with prompt input
from object detection models. Specifically, we integrated two notable
approaches in object detection, namely DINO and YOLO-v8. Our best-performing
model achieved a PQ+ score of 81.33 based on the evaluation metrics of the
competition.
- Abstract(参考訳): 農業におけるパンオプティカルセグメンテーション(panoptic segmentation in agriculture)は、フィールド構成の包括的理解を提供する高度なコンピュータビジョン技術である。
作物や雑草のセグメンテーション、植物パノプティクスのセグメンテーション、葉のインスタンスセグメンテーションなど、農業の課題に対処するための様々なタスクを促進する。
8th Workshop on Computer Vision in Plant Phenotyping and Agriculture (CVPPA)は、農業におけるパン光学のセグメンテーションの応用を探求し、PhenoBenchデータセットを用いた作物と雑草の階層的なパン光学セグメンテーションの挑戦を行った。
このコンペティションで提示される課題に取り組むために,セグメンテーションにおけるセグメント・エバンスモデル(sam)の有効性と,オブジェクト検出モデルからの迅速な入力を組み合わせる手法を提案する。
具体的には、DINOとYOLO-v8という2つの重要なオブジェクト検出手法を統合した。
ベストパフォーマンスモデルでは,PQ+スコアが81.33であった。
関連論文リスト
- Investigating the Segment Anything Foundation Model for Mapping Smallholder Agriculture Field Boundaries Without Training Labels [0.24966046892475396]
本研究は,インド・ビハール州の農地境界を規定するSegment Anything Model(SAM)について検討した。
我々はSAMの性能を3つのモデルチェックポイント、様々な入力サイズ、マルチ日付衛星画像、エッジ強調画像で評価した。
異なる入力画像サイズを使用することで精度が向上し、マルチ日付衛星画像を使用する場合に最も顕著な改善がなされる。
論文 参考訳(メタデータ) (2024-07-01T23:06:02Z) - Agriculture-Vision Challenge 2024 -- The Runner-Up Solution for Agricultural Pattern Recognition via Class Balancing and Model Ensemble [20.631333392618327]
CVPR 2024の農業ビジョンチャレンジは、セマンティックセマンティックセマンティクスモデルを活用してピクセルレベルのセマンティクスセマンティクスラベルを作成することを目的としている。
本稿では,モザイクデータ拡張手法を提案する。
提案手法は,テストセットにおいて平均mIoU(mIoU)スコア0.547を達成し,この課題において第2位を確保した。
論文 参考訳(メタデータ) (2024-06-18T04:59:04Z) - Generating Diverse Agricultural Data for Vision-Based Farming Applications [74.79409721178489]
このモデルは, 植物の成長段階, 土壌条件の多様性, 照明条件の異なるランダム化フィールド配置をシミュレートすることができる。
我々のデータセットにはセマンティックラベル付き12,000の画像が含まれており、精密農業におけるコンピュータビジョンタスクの包括的なリソースを提供する。
論文 参考訳(メタデータ) (2024-03-27T08:42:47Z) - Can SAM recognize crops? Quantifying the zero-shot performance of a
semantic segmentation foundation model on generating crop-type maps using
satellite imagery for precision agriculture [4.825257766966091]
クロップ型マップは意思決定支援ツールの重要な情報である。
本稿では,Meta AIのSegment Anything Model(SAM)の作物マップ予測機能について検討する。
SAMは最大3チャンネルの入力に制限されており、ゼロショットの使用は本質的にクラスに依存しない。
論文 参考訳(メタデータ) (2023-11-25T23:40:09Z) - AIMS: All-Inclusive Multi-Level Segmentation [93.5041381700744]
視覚領域を3つのレベル(パート、エンティティ、リレーション)に分割するタスクであるAll-Inclusive Multi-Level(AIMS)を提案する。
また、アノテーションの不整合とタスク相関の2つの大きな課題に対処するために、マルチデータセットのマルチタスクトレーニングを通じて統合されたAIMSモデルを構築します。
論文 参考訳(メタデータ) (2023-05-28T16:28:49Z) - Semantic Image Segmentation with Deep Learning for Vine Leaf Phenotyping [59.0626764544669]
本研究では,ブドウの葉のイメージを意味的にセグメント化するためにDeep Learning法を用いて,葉の表現型自動検出システムを開発した。
私たちの研究は、成長や開発のような動的な特性を捉え定量化できる植物ライフサイクルのモニタリングに寄与します。
論文 参考訳(メタデータ) (2022-10-24T14:37:09Z) - Hierarchical Approach for Joint Semantic, Plant Instance, and Leaf
Instance Segmentation in the Agricultural Domain [29.647846446064992]
植物表現型は、植物の成長段階、発達、その他の関連する量を記述するため、農業において中心的な課題である。
本稿では,RGBデータから作物の連接意味,植物インスタンス,葉のインスタンスセグメンテーションの問題に対処する。
本稿では,3つのタスクを同時に処理する単一畳み込みニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2022-10-14T15:01:08Z) - Pollen13K: A Large Scale Microscope Pollen Grain Image Dataset [63.05335933454068]
この研究は、1万3千以上の天体を含む最初の大規模花粉画像データセットを提示する。
本稿では, エアロバイオロジカルサンプリング, 顕微鏡画像取得, 物体検出, セグメンテーション, ラベル付けなど, 採用データ取得のステップに注目した。
論文 参考訳(メタデータ) (2020-07-09T10:33:31Z) - The 1st Agriculture-Vision Challenge: Methods and Results [144.57794061346974]
第1回農業ビジョンチャレンジは、航空画像から農業パターン認識のための新しい効果的なアルゴリズムの開発を奨励することを目的としている。
約57の参加チームが、航空農業のセマンティックセグメンテーションの最先端を達成するために競っている。
本報告では,課題における注目すべき手法と成果について概説する。
論文 参考訳(メタデータ) (2020-04-21T05:02:31Z) - Agriculture-Vision: A Large Aerial Image Database for Agricultural
Pattern Analysis [110.30849704592592]
本稿では,農業パターンのセマンティックセグメンテーションのための大規模空中農地画像データセットであるGarmry-Visionを提案する。
各画像はRGBと近赤外線(NIR)チャンネルで構成され、解像度は1ピクセルあたり10cmである。
農家にとって最も重要な9種類のフィールド異常パターンに注釈を付ける。
論文 参考訳(メタデータ) (2020-01-05T20:19:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。