論文の概要: SimAda: A Simple Unified Framework for Adapting Segment Anything Model
in Underperformed Scenes
- arxiv url: http://arxiv.org/abs/2401.17803v1
- Date: Wed, 31 Jan 2024 12:53:11 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-01 14:40:22.238218
- Title: SimAda: A Simple Unified Framework for Adapting Segment Anything Model
in Underperformed Scenes
- Title(参考訳): SimAda: パフォーマンスの低いシーンでセグメンテーションモデルに適応するためのシンプルな統一フレームワーク
- Authors: Yiran Song, Qianyu Zhou, Xuequan Lu, Zhiwen Shao, Lizhuang Ma
- Abstract要約: そこで我々はSimAdaと呼ばれる単純な統一フレームワークを提案し,未演奏シーンにおけるセグメント・ア・モデル(SAM)を適応させる。
SimAdaは単純だが有効であり、データセット固有の設計をすべて取り除き、一般的な最適化にのみ焦点をあてる。
その結果、SimAdaは複数の下流タスクにおけるSAMの性能を著しく改善し、ほとんどのタスクにおいて最先端のパフォーマンスを実現していることがわかった。
- 参考スコア(独自算出の注目度): 37.3316694885333
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Segment anything model (SAM) has demonstrated excellent generalization
capabilities in common vision scenarios, yet lacking an understanding of
specialized data. Although numerous works have focused on optimizing SAM for
downstream tasks, these task-specific approaches usually limit the
generalizability to other downstream tasks. In this paper, we aim to
investigate the impact of the general vision modules on finetuning SAM and
enable them to generalize across all downstream tasks. We propose a simple
unified framework called SimAda for adapting SAM in underperformed scenes.
Specifically, our framework abstracts the general modules of different methods
into basic design elements, and we design four variants based on a shared
theoretical framework. SimAda is simple yet effective, which removes all
dataset-specific designs and focuses solely on general optimization, ensuring
that SimAda can be applied to all SAM-based and even Transformer-based models.
We conduct extensive experiments on nine datasets of six downstream tasks. The
results demonstrate that SimAda significantly improves the performance of SAM
on multiple downstream tasks and achieves state-of-the-art performance on most
of them, without requiring task-specific designs. Code is available at:
https://github.com/zongzi13545329/SimAda
- Abstract(参考訳): segment anything model (sam) は、共通のビジョンシナリオにおいて優れた一般化能力を示してきたが、特殊なデータの理解を欠いている。
ダウンストリームタスクにsamを最適化する作業は数多く存在するが、これらのタスク固有のアプローチは、通常、他のダウンストリームタスクへの一般化を制限している。
本稿では,一般的な視覚モジュールがSAMの微調整に与える影響について検討し,下流タスク全体にわたって一般化できるようにする。
そこで我々はSimAdaと呼ばれる単純な統一フレームワークを提案し、SAMを未演奏シーンに適応させる。
具体的には、異なるメソッドの一般的なモジュールを基本設計要素に抽象化し、共有理論フレームワークに基づいて4つの変種を設計する。
SimAdaはシンプルだが効果的で、すべてのデータセット固有の設計を取り除き、一般的な最適化にのみ焦点を合わせ、SAMベースのモデルやTransformerベースのモデルにもSimAdaを適用することができる。
6つの下流タスクの9つのデータセットについて広範な実験を行った。
その結果、SimAdaはタスク固有の設計を必要とせず、複数のダウンストリームタスクにおけるSAMの性能を大幅に改善し、ほとんどのタスク上で最先端のパフォーマンスを実現することを示した。
コードは、https://github.com/zongzi13545329/SimAdaで入手できる。
関連論文リスト
- Promptable Anomaly Segmentation with SAM Through Self-Perception Tuning [63.55145330447408]
Segment Anything Model (SAM) は、その顕著な一般化能力により、異常セグメンテーションタスクにおいて大きな進歩を遂げている。
SAMを直接適用する既存のメソッドは、しばしばドメインシフトの問題を見落としている。
本稿では, SAMの異常セグメンテーションに対する知覚能力を高めることを目的とした, 自己パーセプティノンチューニング(SPT)手法を提案する。
論文 参考訳(メタデータ) (2024-11-26T08:33:25Z) - On Efficient Variants of Segment Anything Model: A Survey [63.127753705046]
Segment Anything Model (SAM) は画像分割タスクの基本モデルであり、多様なアプリケーションにまたがる強力な一般化で知られている。
これを解決するために、精度を保ちながら効率を高めるために様々なSAM変種が提案されている。
この調査は、これらの効率的なSAM変種に関する最初の包括的なレビューを提供する。
論文 参考訳(メタデータ) (2024-10-07T11:59:54Z) - Adapting Segment Anything Model for Unseen Object Instance Segmentation [70.60171342436092]
Unseen Object Instance(UOIS)は、非構造環境で動作する自律ロボットにとって不可欠である。
UOISタスクのためのデータ効率のよいソリューションであるUOIS-SAMを提案する。
UOIS-SAMは、(i)HeatmapベースのPrompt Generator(HPG)と(ii)SAMのマスクデコーダに適応する階層識別ネットワーク(HDNet)の2つの重要なコンポーネントを統合する。
論文 参考訳(メタデータ) (2024-09-23T19:05:50Z) - Multi-Scale and Detail-Enhanced Segment Anything Model for Salient Object Detection [58.241593208031816]
Segment Anything Model (SAM) は、強力なセグメンテーションと一般化機能を提供する視覚的基本モデルとして提案されている。
実物検出のためのMDSAM(Multi-scale and Detail-enhanced SAM)を提案する。
実験により,複数のSODデータセット上でのモデルの優れた性能が示された。
論文 参考訳(メタデータ) (2024-08-08T09:09:37Z) - ASAM: Boosting Segment Anything Model with Adversarial Tuning [9.566046692165884]
本稿では, 対角的チューニングにより基礎モデルの性能を増幅する新しい手法であるASAMを紹介する。
我々は,自然言語処理における実装の成功に触発された,自然対逆例の可能性を生かした。
本手法は, 対向例のフォトリアリズムを維持し, 元のマスクアノテーションとの整合性を確保する。
論文 参考訳(メタデータ) (2024-05-01T00:13:05Z) - Task-Aware Low-Rank Adaptation of Segment Anything Model [4.5963832382272125]
Segment Anything Model (SAM) は画像セグメンテーションタスクの強力な基盤モデルであることが証明されている。
本稿では,マルチタスク学習の基礎モデルとしてSAMを機能させるタスク対応低ランク適応(TA-LoRA)手法を提案する。
論文 参考訳(メタデータ) (2024-03-16T17:02:50Z) - WSI-SAM: Multi-resolution Segment Anything Model (SAM) for histopathology whole-slide images [8.179859593451285]
病理画像の正確なオブジェクト分割機能を備えたWSI-SAM, Segment Anything Model (SAM) を提案する。
トレーニングオーバーヘッドを最小限にしながら、トレーニング済みの知識を完全に活用するために、SAMは凍結し、最小限のパラメータしか導入しません。
本モデルでは, 膵管癌 in situ (DCIS) セグメンテーションタスクと乳癌転移セグメンテーションタスクにおいて, SAMを4.1, 2.5パーセント上回った。
論文 参考訳(メタデータ) (2024-03-14T10:30:43Z) - TinySAM: Pushing the Envelope for Efficient Segment Anything Model [76.21007576954035]
我々は,強力なゼロショット性能を維持しつつ,小さなセグメントの任意のモデル(TinySAM)を得るためのフレームワークを提案する。
本研究は,まず,軽量学生モデルを蒸留するためのハードプロンプトサンプリングとハードマスク重み付け戦略を用いた,フルステージの知識蒸留法を提案する。
また、学習後の量子化を高速化可能なセグメンテーションタスクに適用し、計算コストをさらに削減する。
論文 参考訳(メタデータ) (2023-12-21T12:26:11Z) - SAM-PARSER: Fine-tuning SAM Efficiently by Parameter Space
Reconstruction [53.871596866809725]
Segment Anything Model (SAM)は、画像中のオブジェクトのセグメンテーションに強力で汎用的なソリューションを提供するため、注目されている。
パラメータ空間再構成(SAM-PARSER)によるSAMの微調整を効率的に行うことを提案する。
行列分解により基底を求め、その係数を微調整し、基底の最適線形結合により新しいシナリオに合わせたパラメータ空間を再構成する。
論文 参考訳(メタデータ) (2023-08-28T14:17:16Z) - SAM Fails to Segment Anything? -- SAM-Adapter: Adapting SAM in
Underperformed Scenes: Camouflage, Shadow, Medical Image Segmentation, and
More [13.047310918166762]
ドメイン固有の情報や視覚的プロンプトを,単純で効果的なアダプタを用いてセグメント化ネットワークに組み込んだtextbfSAM-Adapterを提案する。
タスク固有のネットワークモデルよりも優れていて、テストしたタスクで最先端のパフォーマンスを実現できます。
論文 参考訳(メタデータ) (2023-04-18T17:38:54Z) - mSAM: Micro-Batch-Averaged Sharpness-Aware Minimization [20.560184120992094]
シャープネス・アウェアの最小化手法は、フラットな最小化に向けて勾配降下法を操る基本損失関数を変更する。
我々は最近開発されたフラットネス解析のためのよく研究された一般的なフレームワークを拡張し、SAMがSGDよりもフラットなミニマを達成し、mSAMがSAMよりもフラットなミニマを達成できることを理論的に示す。
論文 参考訳(メタデータ) (2023-02-19T23:27:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。