論文の概要: Auto-Prompting SAM for Weakly Supervised Landslide Extraction
- arxiv url: http://arxiv.org/abs/2501.13426v1
- Date: Thu, 23 Jan 2025 07:08:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-24 15:58:12.185534
- Title: Auto-Prompting SAM for Weakly Supervised Landslide Extraction
- Title(参考訳): 弱改良地すべり抽出のためのオートプロンピングSAM
- Authors: Jian Wang, Xiaokang Zhang, Xianping Ma, Weikang Yu, Pedram Ghamisi,
- Abstract要約: 本稿では,Segment Anything Model (SAM) の自動プロンプトによる簡易かつ効果的な手法を提案する。
擬似ラベルや微調整SAMのための高品質なクラスアクティベーションマップ (CAM) に頼る代わりに,本手法はSAM推論から即時工学を通して,きめ細かなセグメンテーションマスクを直接生成する。
高分解能空中・衛星データを用いた実験結果から,本手法の有効性が示された。
- 参考スコア(独自算出の注目度): 17.515220489213743
- License:
- Abstract: Weakly supervised landslide extraction aims to identify landslide regions from remote sensing data using models trained with weak labels, particularly image-level labels. However, it is often challenged by the imprecise boundaries of the extracted objects due to the lack of pixel-wise supervision and the properties of landslide objects. To tackle these issues, we propose a simple yet effective method by auto-prompting the Segment Anything Model (SAM), i.e., APSAM. Instead of depending on high-quality class activation maps (CAMs) for pseudo-labeling or fine-tuning SAM, our method directly yields fine-grained segmentation masks from SAM inference through prompt engineering. Specifically, it adaptively generates hybrid prompts from the CAMs obtained by an object localization network. To provide sufficient information for SAM prompting, an adaptive prompt generation (APG) algorithm is designed to fully leverage the visual patterns of CAMs, enabling the efficient generation of pseudo-masks for landslide extraction. These informative prompts are able to identify the extent of landslide areas (box prompts) and denote the centers of landslide objects (point prompts), guiding SAM in landslide segmentation. Experimental results on high-resolution aerial and satellite datasets demonstrate the effectiveness of our method, achieving improvements of at least 3.0\% in F1 score and 3.69\% in IoU compared to other state-of-the-art methods. The source codes and datasets will be available at https://github.com/zxk688.
- Abstract(参考訳): 弱教師付き地すべり抽出は、弱いラベル、特に画像レベルのラベルで訓練されたモデルを用いて、リモートセンシングデータから地すべり領域を特定することを目的としている。
しかし, 画素単位の監督が欠如し, 地すべり物の性質が欠如していることから, 抽出対象物の不正確な境界に悩まされることが多い。
これらの問題に対処するために,Segment Anything Model(SAM),すなわちAPSAMの自動プロンプトによる簡易かつ効果的な手法を提案する。
擬似ラベルや微調整SAMのための高品質なクラスアクティベーションマップ (CAM) に頼る代わりに,本手法はSAM推論から即時工学を通して,きめ細かなセグメンテーションマスクを直接生成する。
具体的には、オブジェクトローカライゼーションネットワークによって得られたCAMからハイブリッドプロンプトを適応的に生成する。
SAMプロンプトのための十分な情報を提供するため、適応的プロンプト生成(APG)アルゴリズムは、CAMの視覚パターンを完全に活用し、地すべり抽出のための擬似マスクの効率的な生成を可能にする。
これらの情報的プロンプトは、地すべり領域(ボックスプロンプト)の範囲を特定し、地すべり物体(ポイントプロンプト)の中心を意味し、地すべりのセグメンテーションにおいてSAMを導く。
高分解能空中・衛星データを用いた実験結果から,F1スコアの少なくとも3.0\%,IoUの3.69\%の改善が得られた。
ソースコードとデータセットはhttps://github.com/zxk688.comから入手できる。
関連論文リスト
- Collaborative Feature-Logits Contrastive Learning for Open-Set Semi-Supervised Object Detection [75.02249869573994]
オープンセットのシナリオでは、ラベルなしデータセットには、イン・ディストリビューション(ID)クラスとアウト・オブ・ディストリビューション(OOD)クラスの両方が含まれている。
このような設定で半教師付き検出器を適用すると、OODクラスをIDクラスとして誤分類する可能性がある。
我々は、CFL-Detector(Collaborative Feature-Logits Detector)と呼ばれるシンプルで効果的な方法を提案する。
論文 参考訳(メタデータ) (2024-11-20T02:57:35Z) - MapSAM: Adapting Segment Anything Model for Automated Feature Detection in Historical Maps [6.414068793245697]
我々は,パラメータ効率のよい微調整戦略であるMapSAMを紹介した。
具体的には、画像エンコーダにドメイン固有の知識を統合するために、Weight-Decomposed Low-Rank Adaptation (DoRA) を用いる。
手動入力を必要としない自動プロンプト生成プロセスを開発した。
論文 参考訳(メタデータ) (2024-11-11T13:18:45Z) - Bridge the Points: Graph-based Few-shot Segment Anything Semantically [79.1519244940518]
プレトレーニング技術の最近の進歩により、視覚基礎モデルの能力が向上した。
最近の研究はSAMをFew-shot Semantic segmentation (FSS)に拡張している。
本稿では,グラフ解析に基づく簡易かつ効果的な手法を提案する。
論文 参考訳(メタデータ) (2024-10-09T15:02:28Z) - PointSAM: Pointly-Supervised Segment Anything Model for Remote Sensing Images [16.662173255725463]
本稿では,PointSAM という新しいセグメンテーションモデルを提案する。
我々は, WHU, HRSID, NWPU VHR-10を含むRSIデータセットの実験を行った。
その結果,本手法はSAM,SAM2,その他の比較法で直接試験よりも優れていた。
論文 参考訳(メタデータ) (2024-09-20T11:02:18Z) - TrajSSL: Trajectory-Enhanced Semi-Supervised 3D Object Detection [59.498894868956306]
Pseudo-labeling approach to semi-supervised learning は教師-学生の枠組みを採用する。
我々は、事前学習した動き予測モデルを活用し、擬似ラベル付きデータに基づいて物体軌跡を生成する。
提案手法は2つの異なる方法で擬似ラベル品質を向上する。
論文 参考訳(メタデータ) (2024-09-17T05:35:00Z) - When 3D Partial Points Meets SAM: Tooth Point Cloud Segmentation with Sparse Labels [39.54551717450374]
歯点クラウドセグメンテーションは多くの矯正用アプリケーションにおいて基本的なタスクである。
近年, 3次元セグメンテーションに弱いラベルを用い, 有望な結果を得る方法が提案されている。
本稿では,SAMTooth という名前のフレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-03T08:14:56Z) - Background Activation Suppression for Weakly Supervised Object
Localization and Semantic Segmentation [84.62067728093358]
弱教師付きオブジェクトローカライゼーションとセマンティックセグメンテーションは、画像レベルのラベルのみを使用してオブジェクトをローカライズすることを目的としている。
画素レベルのローカライゼーションを実現するために,フォアグラウンド予測マップを生成することで,新たなパラダイムが誕生した。
本稿では,物体の局在化学習過程に関する2つの驚くべき実験結果を示す。
論文 参考訳(メタデータ) (2023-09-22T15:44:10Z) - Constrained Sampling for Class-Agnostic Weakly Supervised Object
Localization [10.542859578763068]
自己監督型視覚変換器は、画像内のオブジェクトの正確なローカライゼーションマップを生成することができる。
本稿では,異なるトランスフォーマーヘッドが生成する複数のマップを利用して,弱い教師付きオブジェクトローカライゼーションモデルをトレーニングする擬似ラベルを取得することを提案する。
論文 参考訳(メタデータ) (2022-09-09T19:58:38Z) - Discriminative Sampling of Proposals in Self-Supervised Transformers for
Weakly Supervised Object Localization [10.542859578763068]
自己監督型視覚変換器は、画像内のオブジェクトの正確なローカライゼーションマップを生成することができる。
本稿では,異なるトランスフォーマーヘッドが生成する複数のマップを利用して,弱い教師付きオブジェクトローカライゼーションモデルをトレーニングする擬似ラベルを取得することを提案する。
論文 参考訳(メタデータ) (2022-09-09T18:33:23Z) - AutoGeoLabel: Automated Label Generation for Geospatial Machine Learning [69.47585818994959]
リモートセンシングデータのためのラベルの自動生成のためのビッグデータ処理パイプラインを評価する。
我々は,大規模データプラットフォームであるIBM PAIRSを用いて,密集都市部でそのようなラベルを動的に生成する。
論文 参考訳(メタデータ) (2022-01-31T20:02:22Z) - SCARF: Self-Supervised Contrastive Learning using Random Feature
Corruption [72.35532598131176]
本稿では,特徴のランダムなサブセットを乱してビューを形成するコントラスト学習手法であるSCARFを提案する。
SCARFは既存の戦略を補完し、オートエンコーダのような代替手段より優れていることを示す。
論文 参考訳(メタデータ) (2021-06-29T08:08:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。