論文の概要: The Segment Anything Model (SAM) for Remote Sensing Applications: From
Zero to One Shot
- arxiv url: http://arxiv.org/abs/2306.16623v1
- Date: Thu, 29 Jun 2023 01:49:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-30 15:05:27.302475
- Title: The Segment Anything Model (SAM) for Remote Sensing Applications: From
Zero to One Shot
- Title(参考訳): リモートセンシングアプリケーションのためのセグメンション任意のモデル(SAM):ゼロから1ショットまで
- Authors: Lucas Prado Osco, Qiusheng Wu, Eduardo Lopes de Lemos, Wesley Nunes
Gon\c{c}alves, Ana Paula Marques Ramos, Jonathan Li, Jos\'e Marcato Junior
- Abstract要約: 本研究は,リモートセンシング画像解析におけるSegment Anything Model(SAM)の適用を推し進めることを目的としている。
SAMは例外的な一般化能力とゼロショット学習で知られている。
空間分解能の低い画像で発生する限界にもかかわらず、SAMはリモートセンシングデータ解析に有望な適応性を示す。
- 参考スコア(独自算出の注目度): 15.92167253473471
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Segmentation is an essential step for remote sensing image processing. This
study aims to advance the application of the Segment Anything Model (SAM), an
innovative image segmentation model by Meta AI, in the field of remote sensing
image analysis. SAM is known for its exceptional generalization capabilities
and zero-shot learning, making it a promising approach to processing aerial and
orbital images from diverse geographical contexts. Our exploration involved
testing SAM across multi-scale datasets using various input prompts, such as
bounding boxes, individual points, and text descriptors. To enhance the model's
performance, we implemented a novel automated technique that combines a
text-prompt-derived general example with one-shot training. This adjustment
resulted in an improvement in accuracy, underscoring SAM's potential for
deployment in remote sensing imagery and reducing the need for manual
annotation. Despite the limitations encountered with lower spatial resolution
images, SAM exhibits promising adaptability to remote sensing data analysis. We
recommend future research to enhance the model's proficiency through
integration with supplementary fine-tuning techniques and other networks.
Furthermore, we provide the open-source code of our modifications on online
repositories, encouraging further and broader adaptations of SAM to the remote
sensing domain.
- Abstract(参考訳): セグメンテーションはリモートセンシング画像処理の重要なステップである。
本研究では,メタAIによる画像分割モデルであるSegment Anything Model (SAM) をリモートセンシング画像解析分野に適用することを目的としている。
SAMは例外的な一般化能力とゼロショット学習で知られており、様々な地理的文脈から航空画像や軌道画像を処理するための有望なアプローチとなっている。
私たちの調査では、バウンディングボックス、個々のポイント、テキスト記述子など、さまざまな入力プロンプトを使って、SAMをマルチスケールデータセットでテストしました。
モデルの性能を向上させるために,テキストプロンプト由来の汎用例とワンショットトレーニングを組み合わせた新しい自動手法を実装した。
この調整により精度が向上し、SAMのリモートセンシング画像への展開の可能性が強調され、手動のアノテーションの必要性が軽減された。
空間分解能の低い画像で発生する限界にもかかわらず、SAMはリモートセンシングデータ解析に有望な適応性を示す。
補足的な微調整技術や他のネットワークとの統合により,モデルの習熟度を高めるための今後の研究を推奨する。
さらに,オンラインレポジトリにおける修正のオープンソースコードを提供し,SAMのリモートセンシング領域への適応をさらに促進する。
関連論文リスト
- MAS-SAM: Segment Any Marine Animal with Aggregated Features [55.91291540810978]
そこで本研究では,海洋生物のセグメンテーションのためのMAS-SAMという新しい特徴学習フレームワークを提案する。
本手法により,グローバルな文脈的手がかりからよりリッチな海洋情報を抽出し,よりきめ細かな局部的詳細を抽出できる。
論文 参考訳(メタデータ) (2024-04-24T07:38:14Z) - RS-Mamba for Large Remote Sensing Image Dense Prediction [58.12667617617306]
本稿では,大規模なVHRリモートセンシング画像における高密度予測タスクに対するリモートセンシング・マンバ(RSM)を提案する。
RSMは、線形複雑度でリモートセンシング画像のグローバルなコンテキストを捉えるように設計されている。
我々のモデルは、大規模なリモートセンシング画像の変換器ベースモデルよりも効率と精度がよい。
論文 参考訳(メタデータ) (2024-04-03T12:06:01Z) - RSAM-Seg: A SAM-based Approach with Prior Knowledge Integration for
Remote Sensing Image Semantic Segmentation [10.37240769959699]
Segment Anything Model (SAM)は、イメージセグメンテーションタスクのための普遍的な事前トレーニングモデルを提供する。
本稿では,セマンティックを用いたリモートセンシングSAM(RSAM-Seg)を提案する。
SAMのエンコーダ部分のマルチヘッドアテンションブロックにおいて,アダプタスケール(Adapter-Scale)が提案されている。
クラウド検出、フィールド監視、ビル検出、道路マッピングタスクを含む4つの異なるリモートセンシングシナリオで実験が行われた。
論文 参考訳(メタデータ) (2024-02-29T09:55:46Z) - VRP-SAM: SAM with Visual Reference Prompt [73.05676082695459]
そこで我々は,Segment Anything Model (SAM) を利用した新しいVisual Reference Prompt (VRP) エンコーダを提案する。
本質的には、VRP-SAMは注釈付き参照画像を使用して特定のオブジェクトを理解し、ターゲット画像内の特定のオブジェクトのセグメンテーションを実行することができる。
論文 参考訳(メタデータ) (2024-02-27T17:58:09Z) - Grounded SAM: Assembling Open-World Models for Diverse Visual Tasks [47.646824158039664]
オープンセットオブジェクト検出器として Grounding DINO を用いて,セグメントアプライスモデル(SAM)と組み合わせた Grounded SAM を紹介する。
この統合により任意のテキスト入力に基づいて任意の領域の検出とセグメンテーションが可能になる。
論文 参考訳(メタデータ) (2024-01-25T13:12:09Z) - Rotated Multi-Scale Interaction Network for Referring Remote Sensing Image Segmentation [63.15257949821558]
Referring Remote Sensing Image (RRSIS)は、コンピュータビジョンと自然言語処理を組み合わせた新しい課題である。
従来の参照画像(RIS)アプローチは、空中画像に見られる複雑な空間スケールと向きによって妨げられている。
本稿ではRMSIN(Rotated Multi-Scale Interaction Network)を紹介する。
論文 参考訳(メタデータ) (2023-12-19T08:14:14Z) - Boosting Segment Anything Model Towards Open-Vocabulary Learning [69.42565443181017]
Segment Anything Model (SAM)は、新しいパラダイムビジョン基盤モデルとして登場した。
SAMは様々な領域で応用や適応を発見できるが、その主な制限はオブジェクトの意味を把握できないことである。
我々は,SAMとオープン語彙オブジェクト検出器をエンドツーエンドフレームワークでシームレスに統合するSamborを提案する。
論文 参考訳(メタデータ) (2023-12-06T17:19:00Z) - Self-guided Few-shot Semantic Segmentation for Remote Sensing Imagery
Based on Large Vision Models [14.292149307183967]
本研究は,少数ショットセマンティックセグメンテーションの自動化を目的とした構造化フレームワークを提案する。
SAMモデルを利用して、意味的に識別可能なセグメンテーションの結果をより効率的に生成する。
提案手法の中心は,従来のガイドマスクを利用してSAMの粗い画素単位のプロンプトを生成する,新しい自動プロンプト学習手法である。
論文 参考訳(メタデータ) (2023-11-22T07:07:55Z) - Zero-Shot Segmentation of Eye Features Using the Segment Anything Model (SAM) [8.529233820032678]
Segment Anything Model (SAM)は、画像セグメンテーションのための最初の基礎モデルである。
本研究では,VR機器で記録された視線画像から特徴を分割するSAMの能力を評価する。
我々の調査はSAMのゼロショット学習能力と、バウンディングボックスやポイントクリックのようなプロンプトの有効性に焦点を当てている。
論文 参考訳(メタデータ) (2023-11-14T11:05:08Z) - Adapting Segment Anything Model for Change Detection in HR Remote
Sensing Images [18.371087310792287]
本研究は、高解像度リモートセンシング画像(RSI)の変化検出を改善するために、ビジョンファウンデーションモデル(VFM)の強力な視覚認識機能を活用することを目的とする。
我々は、能率的なSAMの変種であるFastSAMの視覚エンコーダを用いて、RSシーンの視覚表現を抽出する。
SAMの特徴に固有の意味表現を活用するために、両時間RSIにおける意味潜在をモデル化するためのタスク非依存の意味学習ブランチを導入する。
その結果, SAMCDはSOTA法よりも精度が高く, セミに匹敵するサンプル効率の学習能力を示す。
論文 参考訳(メタデータ) (2023-09-04T08:23:31Z) - RSPrompter: Learning to Prompt for Remote Sensing Instance Segmentation
based on Visual Foundation Model [29.42043345787285]
本稿では,Segment Anything Model (SAM) のための適切なプロンプトの生成を学習する手法を提案する。
これによりSAMはリモートセンシング画像に対して意味的に識別可能なセグメンテーション結果を生成することができる。
また,SAMコミュニティ内での最近の進歩を図り,その性能をRSPrompterと比較する。
論文 参考訳(メタデータ) (2023-06-28T14:51:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。