論文の概要: Assessing SAM for Tree Crown Instance Segmentation from Drone Imagery
- arxiv url: http://arxiv.org/abs/2503.20199v1
- Date: Wed, 26 Mar 2025 03:45:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-27 13:22:25.266397
- Title: Assessing SAM for Tree Crown Instance Segmentation from Drone Imagery
- Title(参考訳): ドローン画像からの木のクラウンインスタンスセグメンテーションにおけるSAMの評価
- Authors: Mélisande Teng, Arthur Ouaknine, Etienne Laliberté, Yoshua Bengio, David Rolnick, Hugo Larochelle,
- Abstract要約: 現在のモニタリング手法では、各種に対して手動で木を計測し、コスト、時間、労働力を必要とする。
ドローンリモートセンシングとコンピュータビジョンの進歩は、空中画像から木をマッピングし、特徴づける大きな可能性を秘めている。
若木植林の高分解能ドローン画像における樹冠の自動区分け作業におけるSAM法の比較を行った。
SAM out-of-box を用いたメソッドは、よく設計されたプロンプトであっても、カスタム Mask R-CNN よりも優れているわけではないが、SAM をチューニングするメソッドの可能性を秘めている。
- 参考スコア(独自算出の注目度): 68.69685477556682
- License:
- Abstract: The potential of tree planting as a natural climate solution is often undermined by inadequate monitoring of tree planting projects. Current monitoring methods involve measuring trees by hand for each species, requiring extensive cost, time, and labour. Advances in drone remote sensing and computer vision offer great potential for mapping and characterizing trees from aerial imagery, and large pre-trained vision models, such as the Segment Anything Model (SAM), may be a particularly compelling choice given limited labeled data. In this work, we compare SAM methods for the task of automatic tree crown instance segmentation in high resolution drone imagery of young tree plantations. We explore the potential of SAM for this task, and find that methods using SAM out-of-the-box do not outperform a custom Mask R-CNN, even with well-designed prompts, but that there is potential for methods which tune SAM further. We also show that predictions can be improved by adding Digital Surface Model (DSM) information as an input.
- Abstract(参考訳): 天然の気候ソリューションとしての樹木植林の可能性はしばしば、樹木植林プロジェクトの不適切なモニタリングによって損なわれている。
現在のモニタリング手法では、各種に対して手動で木を計測し、コスト、時間、労働力を必要とする。
ドローンリモートセンシングとコンピュータビジョンの進歩は、空中画像から木をマッピングし、特徴付ける大きな可能性を秘めている。
本研究では,若木植林の高分解能ドローン画像における樹冠の自動区分け作業におけるSAM手法の比較を行った。
この課題に対するSAMの可能性を探り、SAM out-of-box を用いたメソッドが、よく設計されたプロンプトであってもカスタムの Mask R-CNN より優れているわけではなく、SAM をさらにチューニングするメソッドの可能性があることを見出した。
また,DSM(Digital Surface Model)情報を入力として付加することで,予測を改善することができることを示す。
関連論文リスト
- Plantation Monitoring Using Drone Images: A Dataset and Performance Review [2.4936576553283287]
RGBカメラを搭載した小型で安価なドローンは、農地の高解像度画像を撮影することができる。
既存の自動プランテーションモニタリングの方法は、主に衛星画像に基づいている。
ドローン画像を用いたプランテーション型健康モニタリングシステムを提案する。
論文 参考訳(メタデータ) (2025-02-12T09:21:16Z) - Inspiring the Next Generation of Segment Anything Models: Comprehensively Evaluate SAM and SAM 2 with Diverse Prompts Towards Context-Dependent Concepts under Different Scenes [63.966251473172036]
基礎モデルSAMはコンピュータビジョンの複数の分野に影響を与えており、そのアップグレード版SAM 2はビデオセグメンテーションの能力を高めている。
SAMは、人、車、道路といったコンテキストに依存しない概念のセグメンテーションにおいて優れたパフォーマンスを示してきたが、視覚的サリエンシ、カモフラージュ、製品欠陥、医学的障害など、より困難なコンテキスト依存(CD)の概念を見落としている。
自然, 医療, 産業のシーンにおいて, 11枚のCDのコンセプトを2D, 3D画像, ビデオで徹底的に定量的に評価する。
論文 参考訳(メタデータ) (2024-12-02T08:03:56Z) - Multi-Scale and Detail-Enhanced Segment Anything Model for Salient Object Detection [58.241593208031816]
Segment Anything Model (SAM) は、強力なセグメンテーションと一般化機能を提供する視覚的基本モデルとして提案されている。
実物検出のためのMDSAM(Multi-scale and Detail-enhanced SAM)を提案する。
実験により,複数のSODデータセット上でのモデルの優れた性能が示された。
論文 参考訳(メタデータ) (2024-08-08T09:09:37Z) - Leveraging Segment Anything Model in Identifying Buildings within Refugee Camps (SAM4Refugee) from Satellite Imagery for Humanitarian Operations [0.0]
本研究は,セグメンテーション・セグメンテーション・タスクにおいて,セグメンテーション・アロイング・モデル(SAM)とその分岐の一つであるSAM-Adapterの利用について検討する。
SAM-AdapterはSAMの軽量な適応であり、様々な難民キャンプでこの抽出作業の強力なツールとして登場した。
論文 参考訳(メタデータ) (2024-07-16T04:52:58Z) - MAS-SAM: Segment Any Marine Animal with Aggregated Features [55.91291540810978]
そこで本研究では,海洋生物のセグメンテーションのためのMAS-SAMという新しい特徴学習フレームワークを提案する。
本手法により,グローバルな文脈的手がかりからよりリッチな海洋情報を抽出し,よりきめ細かな局部的詳細を抽出できる。
論文 参考訳(メタデータ) (2024-04-24T07:38:14Z) - TinySAM: Pushing the Envelope for Efficient Segment Anything Model [73.06322749886483]
我々は,強力なゼロショット性能を維持しつつ,小さなセグメントの任意のモデル(TinySAM)を得るためのフレームワークを提案する。
これらすべての提案手法により、TinySAMは計算量を大幅に削減し、エンベロープを効率的なセグメント化タスクにプッシュする。
論文 参考訳(メタデータ) (2023-12-21T12:26:11Z) - Boosting Segment Anything Model Towards Open-Vocabulary Learning [69.24734826209367]
Segment Anything Model (SAM)は、新しいパラダイムビジョン基盤モデルとして登場した。
SAMは様々な領域で応用や適応を発見できるが、その主な制限はオブジェクトの意味を把握できないことである。
我々は,SAMとオープン語彙オブジェクト検出器をエンドツーエンドフレームワークでシームレスに統合するSamborを提案する。
論文 参考訳(メタデータ) (2023-12-06T17:19:00Z) - Can SAM recognize crops? Quantifying the zero-shot performance of a
semantic segmentation foundation model on generating crop-type maps using
satellite imagery for precision agriculture [4.825257766966091]
クロップ型マップは意思決定支援ツールの重要な情報である。
本稿では,Meta AIのSegment Anything Model(SAM)の作物マップ予測機能について検討する。
SAMは最大3チャンネルの入力に制限されており、ゼロショットの使用は本質的にクラスに依存しない。
論文 参考訳(メタデータ) (2023-11-25T23:40:09Z) - How to Efficiently Adapt Large Segmentation Model(SAM) to Medical Images [15.181219203629643]
Segment Anything (SAM)は、自然画像のゼロショットセグメンテーションにおいて印象的な機能を示す。
しかし、医療画像に適用すると、SAMは顕著なパフォーマンス低下に悩まされる。
本研究では,SAMエンコーダを凍結し,軽量なタスク固有予測ヘッドを微調整することを提案する。
論文 参考訳(メタデータ) (2023-06-23T18:34:30Z) - SAM Fails to Segment Anything? -- SAM-Adapter: Adapting SAM in
Underperformed Scenes: Camouflage, Shadow, Medical Image Segmentation, and
More [13.047310918166762]
ドメイン固有の情報や視覚的プロンプトを,単純で効果的なアダプタを用いてセグメント化ネットワークに組み込んだtextbfSAM-Adapterを提案する。
タスク固有のネットワークモデルよりも優れていて、テストしたタスクで最先端のパフォーマンスを実現できます。
論文 参考訳(メタデータ) (2023-04-18T17:38:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。