論文の概要: SimAda: A Simple Unified Framework for Adapting Segment Anything Model
in Underperformed Scenes
- arxiv url: http://arxiv.org/abs/2401.17803v1
- Date: Wed, 31 Jan 2024 12:53:11 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-01 14:40:22.238218
- Title: SimAda: A Simple Unified Framework for Adapting Segment Anything Model
in Underperformed Scenes
- Title(参考訳): SimAda: パフォーマンスの低いシーンでセグメンテーションモデルに適応するためのシンプルな統一フレームワーク
- Authors: Yiran Song, Qianyu Zhou, Xuequan Lu, Zhiwen Shao, Lizhuang Ma
- Abstract要約: そこで我々はSimAdaと呼ばれる単純な統一フレームワークを提案し,未演奏シーンにおけるセグメント・ア・モデル(SAM)を適応させる。
SimAdaは単純だが有効であり、データセット固有の設計をすべて取り除き、一般的な最適化にのみ焦点をあてる。
その結果、SimAdaは複数の下流タスクにおけるSAMの性能を著しく改善し、ほとんどのタスクにおいて最先端のパフォーマンスを実現していることがわかった。
- 参考スコア(独自算出の注目度): 37.3316694885333
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Segment anything model (SAM) has demonstrated excellent generalization
capabilities in common vision scenarios, yet lacking an understanding of
specialized data. Although numerous works have focused on optimizing SAM for
downstream tasks, these task-specific approaches usually limit the
generalizability to other downstream tasks. In this paper, we aim to
investigate the impact of the general vision modules on finetuning SAM and
enable them to generalize across all downstream tasks. We propose a simple
unified framework called SimAda for adapting SAM in underperformed scenes.
Specifically, our framework abstracts the general modules of different methods
into basic design elements, and we design four variants based on a shared
theoretical framework. SimAda is simple yet effective, which removes all
dataset-specific designs and focuses solely on general optimization, ensuring
that SimAda can be applied to all SAM-based and even Transformer-based models.
We conduct extensive experiments on nine datasets of six downstream tasks. The
results demonstrate that SimAda significantly improves the performance of SAM
on multiple downstream tasks and achieves state-of-the-art performance on most
of them, without requiring task-specific designs. Code is available at:
https://github.com/zongzi13545329/SimAda
- Abstract(参考訳): segment anything model (sam) は、共通のビジョンシナリオにおいて優れた一般化能力を示してきたが、特殊なデータの理解を欠いている。
ダウンストリームタスクにsamを最適化する作業は数多く存在するが、これらのタスク固有のアプローチは、通常、他のダウンストリームタスクへの一般化を制限している。
本稿では,一般的な視覚モジュールがSAMの微調整に与える影響について検討し,下流タスク全体にわたって一般化できるようにする。
そこで我々はSimAdaと呼ばれる単純な統一フレームワークを提案し、SAMを未演奏シーンに適応させる。
具体的には、異なるメソッドの一般的なモジュールを基本設計要素に抽象化し、共有理論フレームワークに基づいて4つの変種を設計する。
SimAdaはシンプルだが効果的で、すべてのデータセット固有の設計を取り除き、一般的な最適化にのみ焦点を合わせ、SAMベースのモデルやTransformerベースのモデルにもSimAdaを適用することができる。
6つの下流タスクの9つのデータセットについて広範な実験を行った。
その結果、SimAdaはタスク固有の設計を必要とせず、複数のダウンストリームタスクにおけるSAMの性能を大幅に改善し、ほとんどのタスク上で最先端のパフォーマンスを実現することを示した。
コードは、https://github.com/zongzi13545329/SimAdaで入手できる。
関連論文リスト
- ASAM: Boosting Segment Anything Model with Adversarial Tuning [9.566046692165884]
本稿では, 対角的チューニングにより基礎モデルの性能を増幅する新しい手法であるASAMを紹介する。
我々は,自然言語処理における実装の成功に触発された,自然対逆例の可能性を生かした。
本手法は, 対向例のフォトリアリズムを維持し, 元のマスクアノテーションとの整合性を確保する。
論文 参考訳(メタデータ) (2024-05-01T00:13:05Z) - MAS-SAM: Segment Any Marine Animal with Aggregated Features [55.91291540810978]
そこで本研究では,海洋生物のセグメンテーションのためのMAS-SAMという新しい特徴学習フレームワークを提案する。
本手法により,グローバルな文脈的手がかりからよりリッチな海洋情報を抽出し,よりきめ細かな局部的詳細を抽出できる。
論文 参考訳(メタデータ) (2024-04-24T07:38:14Z) - RAP-SAM: Towards Real-Time All-Purpose Segment Anything [120.17175256421622]
Segment Anything Model (SAM) は、一般化されたセグメンテーションを実現するための注目すべきモデルである。
現在のリアルタイムセグメンテーションは、主に運転シーンのセグメンテーションのような1つの目的を持っている。
本研究は、リアルタイムデプロイメントにおけるVFMの転送を実現するために、リアルタイムに全目的セグメンテーションと呼ばれる新しいリアルタイムセグメンテーション設定を提案する。
論文 参考訳(メタデータ) (2024-01-18T18:59:30Z) - TinySAM: Pushing the Envelope for Efficient Segment Anything Model [76.21007576954035]
我々は,強力なゼロショット性能を維持しつつ,小さなセグメントの任意のモデル(TinySAM)を得るためのフレームワークを提案する。
本研究は,まず,軽量学生モデルを蒸留するためのハードプロンプトサンプリングとハードマスク重み付け戦略を用いた,フルステージの知識蒸留法を提案する。
また、学習後の量子化を高速化可能なセグメンテーションタスクに適用し、計算コストをさらに削減する。
論文 参考訳(メタデータ) (2023-12-21T12:26:11Z) - An Efficient General-Purpose Modular Vision Model via Multi-Task
Heterogeneous Training [79.78201886156513]
本稿では、複数の視覚タスクを実行でき、他の下流タスクに効率的に適応できるモデルを提案する。
提案手法は,単一タスク状態モデルに匹敵する結果を達成し,下流タスクの強力な一般化を実証する。
論文 参考訳(メタデータ) (2023-06-29T17:59:57Z) - A Comprehensive Survey on Segment Anything Model for Vision and Beyond [7.920790211915402]
幅広いデータに基づいて訓練された基礎モデルと呼ばれる、一般的なモデルのクラスを設計することは緊急である。
最近提案されたセグメンテーションモデル(SAM)は、セグメンテーションの境界を破る大きな進歩を遂げた。
本稿では,SAMを含む基礎モデルの背景と用語,およびSAMと同種の最先端手法について紹介する。
論文 参考訳(メタデータ) (2023-05-14T16:23:22Z) - An Alternative to WSSS? An Empirical Study of the Segment Anything Model
(SAM) on Weakly-Supervised Semantic Segmentation Problems [35.547433613976104]
Segment Anything Model (SAM)は、優れたパフォーマンスと汎用性を示している。
本報告では,弱スーパービジョンセマンティック(WSSS)におけるSAMの適用について検討する。
画像レベルのクラスラベルのみを付与した擬似ラベル生成パイプラインとしてSAMを適応する。
論文 参考訳(メタデータ) (2023-05-02T16:35:19Z) - SAM Fails to Segment Anything? -- SAM-Adapter: Adapting SAM in
Underperformed Scenes: Camouflage, Shadow, Medical Image Segmentation, and
More [13.047310918166762]
ドメイン固有の情報や視覚的プロンプトを,単純で効果的なアダプタを用いてセグメント化ネットワークに組み込んだtextbfSAM-Adapterを提案する。
タスク固有のネットワークモデルよりも優れていて、テストしたタスクで最先端のパフォーマンスを実現できます。
論文 参考訳(メタデータ) (2023-04-18T17:38:54Z) - Universal Information Extraction as Unified Semantic Matching [54.19974454019611]
情報抽出を,異なるタスクやスキーマで共有される構造化と概念化という,2つの能力に分割する。
このパラダイムに基づいて、統一意味マッチングフレームワークを用いて様々なIEタスクを普遍的にモデル化することを提案する。
このように、USMはスキーマと入力テキストを共同でエンコードし、サブ構造を一様に並列に抽出し、必要に応じてターゲット構造を制御できる。
論文 参考訳(メタデータ) (2023-01-09T11:51:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。