論文の概要: fabSAM: A Farmland Boundary Delineation Method Based on the Segment Anything Model
- arxiv url: http://arxiv.org/abs/2501.12487v1
- Date: Tue, 21 Jan 2025 20:23:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-23 16:53:08.248796
- Title: fabSAM: A Farmland Boundary Delineation Method Based on the Segment Anything Model
- Title(参考訳): fabSAM:Segment Anythingモデルに基づく農地境界線作成手法
- Authors: Yufeng Xie, Hanzhi Wu, Hongxiang Tong, Lei Xiao, Wenwen Zhou, Ling Li, Thomas Cherico Wanger,
- Abstract要約: 農地の境界線は、作物のモニタリングや農業国勢調査などの農業管理に不可欠である。
リモートセンシング画像を用いた従来の手法は効率的だが、一般化には限界がある。
本稿では,Deeplabv3+ ベースの Prompter と SAM を組み合わせた SAM ベースの農地境界記述フレームワーク "fabSAM" を提案する。
- 参考スコア(独自算出の注目度): 5.858701186639639
- License:
- Abstract: Delineating farmland boundaries is essential for agricultural management such as crop monitoring and agricultural census. Traditional methods using remote sensing imagery have been efficient but limited in generalisation. The Segment Anything Model (SAM), known for its impressive zero shot performance, has been adapted for remote sensing tasks through prompt learning and fine tuning. Here, we propose a SAM based farmland boundary delineation framework 'fabSAM' that combines a Deeplabv3+ based Prompter and SAM. Also, a fine tuning strategy was introduced to enable SAMs decoder to improve the use of prompt information. Experimental results on the AI4Boundaries and AI4SmallFarms datasets have shown that fabSAM has a significant improvement in farmland region identification and boundary delineation. Compared to zero shot SAM, fabSAM surpassed it by 23.5% and 15.1% in mIOU on the AI4Boundaries and AI4SmallFarms datasets, respectively. For Deeplabv3+, fabSAM outperformed it by 4.9% and 12.5% in mIOU, respectively. These results highlight the effectiveness of fabSAM, which also means that we can more easily obtain the global farmland region and boundary maps from open source satellite image datasets like Sentinel2.
- Abstract(参考訳): 農地の境界線は、作物のモニタリングや農業国勢調査などの農業管理に不可欠である。
リモートセンシング画像を用いた従来の手法は効率的だが、一般化には限界がある。
Segment Anything Model (SAM)はその印象的なゼロショット性能で知られており、迅速な学習と微調整を通じてリモートセンシングタスクに適応している。
本稿では,Deeplabv3+ベースの Prompter と SAM を組み合わせた SAM ベースの農地境界記述フレームワーク "fabSAM" を提案する。
また、SAMsデコーダがインシデント情報の使用を改善するための微調整戦略も導入された。
AI4BoundariesとAI4SmallFarmsデータセットの実験結果によると、fabSAMは農地領域の識別と境界線化において著しく改善されている。
ゼロショットSAMと比較して、fabSAMはAI4BoundariesとAI4SmallFarmsデータセットのmIOUの23.5%と15.1%を上回った。
Deeplabv3+では、fabSAMはmIOUでそれぞれ4.9%、12.5%の成績を示した。
これらの結果はfabSAMの有効性を強調しており、これはまた、Sentinel2のようなオープンソースの衛星画像データセットから、グローバルな農地領域と境界マップをより容易に取得できることを意味している。
関連論文リスト
- Prompting DirectSAM for Semantic Contour Extraction in Remote Sensing Images [11.845626002236772]
我々は,自然画像から得られる強いセグメンテーション機能を継承するDirectSAM-RSという,DirectSAMから派生した基盤モデルを提案する。
このデータセットは34k以上の画像-テキスト-コンテンツトレーレットで構成されており、個々のデータセットの少なくとも30倍の大きさである。
我々は、DirectSAM-RSをゼロショットと微調整の両方で評価し、複数のダウンストリームベンチマークで最先端性能を実現することを実証した。
論文 参考訳(メタデータ) (2024-10-08T16:55:42Z) - Investigating the Segment Anything Foundation Model for Mapping Smallholder Agriculture Field Boundaries Without Training Labels [0.24966046892475396]
本研究は,インド・ビハール州の農地境界を規定するSegment Anything Model(SAM)について検討した。
我々はSAMの性能を3つのモデルチェックポイント、様々な入力サイズ、マルチ日付衛星画像、エッジ強調画像で評価した。
異なる入力画像サイズを使用することで精度が向上し、マルチ日付衛星画像を使用する場合に最も顕著な改善がなされる。
論文 参考訳(メタデータ) (2024-07-01T23:06:02Z) - Segment Anything without Supervision [65.93211374889196]
高速かつ自動的な全画像分割のためのUnsupervised SAM(UnSAM)を提案する。
UnSAMは、視覚シーンの階層構造を「発見」するために、分割・コンカ戦略を利用する。
教師付きSAMは自己教師付きラベルの恩恵を受けることができることを示す。
論文 参考訳(メタデータ) (2024-06-28T17:47:32Z) - MAS-SAM: Segment Any Marine Animal with Aggregated Features [55.91291540810978]
そこで本研究では,海洋生物のセグメンテーションのためのMAS-SAMという新しい特徴学習フレームワークを提案する。
本手法により,グローバルな文脈的手がかりからよりリッチな海洋情報を抽出し,よりきめ細かな局部的詳細を抽出できる。
論文 参考訳(メタデータ) (2024-04-24T07:38:14Z) - Group-Mix SAM: Lightweight Solution for Industrial Assembly Line Applications [0.0]
我々は、重厚画像エンコーダを軽量画像エンコーダに置き換え、SAMを実用的な組立ラインのシナリオに展開できるようにする。
その結果、Group-Mix SAMと呼ばれる軽量SAMのパラメータは37.63% (2.16M)、パラメータは42.5%(15614.7M)、浮動小数点演算はMobileSAMより少ない。
論文 参考訳(メタデータ) (2024-03-15T06:48:44Z) - Grounded SAM: Assembling Open-World Models for Diverse Visual Tasks [47.646824158039664]
オープンセットオブジェクト検出器として Grounding DINO を用いて,セグメントアプライスモデル(SAM)と組み合わせた Grounded SAM を紹介する。
この統合により任意のテキスト入力に基づいて任意の領域の検出とセグメンテーションが可能になる。
論文 参考訳(メタデータ) (2024-01-25T13:12:09Z) - EdgeSAM: Prompt-In-the-Loop Distillation for On-Device Deployment of SAM [71.868623296582]
EdgeSAMはSegment Anything Model (SAM)の高速化版である。
我々のアプローチは、VTベースのSAMイメージエンコーダを純粋にCNNベースのアーキテクチャに蒸留することである。
これは、iPhone 14で30FPS以上で動作可能なSAMの最初の派生機種である。
論文 参考訳(メタデータ) (2023-12-11T18:59:52Z) - Stable Segment Anything Model [79.9005670886038]
SAM(Segment Anything Model)は、高品質なプロンプトが与えられた場合、顕著に迅速なセグメンテーションを実現する。
本稿では,SAMのセグメンテーション安定性について,多様なプロンプト特性のスペクトルにわたって包括的解析を行った。
1)SAMのセグメンテーション安定性を広範囲に改善し,2)SAMの強力なセグメンテーション効率と一般化を維持した。
論文 参考訳(メタデータ) (2023-11-27T12:51:42Z) - Can SAM recognize crops? Quantifying the zero-shot performance of a
semantic segmentation foundation model on generating crop-type maps using
satellite imagery for precision agriculture [4.825257766966091]
クロップ型マップは意思決定支援ツールの重要な情報である。
本稿では,Meta AIのSegment Anything Model(SAM)の作物マップ予測機能について検討する。
SAMは最大3チャンネルの入力に制限されており、ゼロショットの使用は本質的にクラスに依存しない。
論文 参考訳(メタデータ) (2023-11-25T23:40:09Z) - Segment Anything in High Quality [116.39405160133315]
そこで本研究では,SAM のプロンプト可能な設計,効率,ゼロショットの一般化性を維持しつつ,任意のオブジェクトを正確にセグメント化できる HQ-SAM を提案する。
注意深い設計はSAMの事前訓練されたモデルの重みを再利用し、保存し、最小限の追加パラメータと計算しか導入しない。
ダウンストリームタスクにまたがる10種類のセグメンテーションデータセットでHQ-SAMの有効性を示し,そのうち8つをゼロショット転送プロトコルで評価した。
論文 参考訳(メタデータ) (2023-06-02T14:23:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。