論文の概要: AdapterShadow: Adapting Segment Anything Model for Shadow Detection
- arxiv url: http://arxiv.org/abs/2311.08891v1
- Date: Wed, 15 Nov 2023 11:51:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-16 16:08:34.050220
- Title: AdapterShadow: Adapting Segment Anything Model for Shadow Detection
- Title(参考訳): adaptershadow: シャドー検出にsegment anythingモデルを適用する
- Authors: Leiping Jie and Hui Zhang
- Abstract要約: Segment Any Model (SAM)は、ユニバーサルオブジェクトのセグメンテーションにおいて、その壮大なパフォーマンスを示している。
しかし、医用画像の影画像や病変など特定のターゲットを特定できない。
影検出にSAMモデルを適用するAdapterShadowを提案する。
- 参考スコア(独自算出の注目度): 6.201928340999525
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Segment anything model (SAM) has shown its spectacular performance in
segmenting universal objects, especially when elaborate prompts are provided.
However, the drawback of SAM is twofold. On the first hand, it fails to segment
specific targets, e.g., shadow images or lesions in medical images. On the
other hand, manually specifying prompts is extremely time-consuming. To
overcome the problems, we propose AdapterShadow, which adapts SAM model for
shadow detection. To adapt SAM for shadow images, trainable adapters are
inserted into the frozen image encoder of SAM, since the training of the full
SAM model is both time and memory consuming. Moreover, we introduce a novel
grid sampling method to generate dense point prompts, which helps to
automatically segment shadows without any manual interventions. Extensive
experiments are conducted on four widely used benchmark datasets to demonstrate
the superior performance of our proposed method. Codes will are publicly
available at https://github.com/LeipingJie/AdapterShadow.
- Abstract(参考訳): Segment Any Model (SAM)は、特に精巧なプロンプトが提供されるとき、普遍オブジェクトのセグメンテーションにおいて、その素晴らしいパフォーマンスを示している。
しかし、SAMの欠点は2つある。
第一に、医療画像中のシャドウ画像や病変など、特定のターゲットを区分することができない。
一方、手動でプロンプトを指定するのは非常に時間がかかる。
そこで本研究では,影検出にSAMモデルを適用するAdapterShadowを提案する。
影画像にSAMを適用するために、SAMの凍結画像エンコーダにトレーニング可能なアダプタを挿入する。
さらに,手動による介入を伴わずにシャドウを自動的に分割する高密度点プロンプトを生成する新しいグリッドサンプリング手法を提案する。
提案手法の優れた性能を示すために,4つのベンチマークデータセットを用いて広範な実験を行った。
コードはhttps://github.com/LeipingJie/AdapterShadow.comで公開されている。
関連論文リスト
- SAM2-UNet: Segment Anything 2 Makes Strong Encoder for Natural and Medical Image Segmentation [51.90445260276897]
我々は,Segment Anything Model 2 (SAM2) がU字型セグメンテーションモデルの強力なエンコーダであることを証明した。
本稿では, SAM2-UNet と呼ばれる, 汎用画像分割のための簡易かつ効果的なフレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-16T17:55:38Z) - MAS-SAM: Segment Any Marine Animal with Aggregated Features [55.91291540810978]
そこで本研究では,海洋生物のセグメンテーションのためのMAS-SAMという新しい特徴学習フレームワークを提案する。
本手法により,グローバルな文脈的手がかりからよりリッチな海洋情報を抽出し,よりきめ細かな局部的詳細を抽出できる。
論文 参考訳(メタデータ) (2024-04-24T07:38:14Z) - CAT-SAM: Conditional Tuning for Few-Shot Adaptation of Segment Anything Model [90.26396410706857]
本稿では,CAT-SAM(ConditionAl Tuning Network)を提案する。
CAT-SAMはSAM全体を凍結し、マスクデコーダとイメージエンコーダに少数の学習可能なパラメータを同時に適用する。
Cat-SAM 変種は、非常に困難なワンショット適応設定の下でも、常に優れた目標セグメンテーション性能を達成する。
論文 参考訳(メタデータ) (2024-02-06T02:00:18Z) - PA-SAM: Prompt Adapter SAM for High-Quality Image Segmentation [19.65118388712439]
本稿では,新しいプロンプト駆動型アダプタであるPrompt Adapter Segment Anything Model(PA-SAM)を紹介する。
PA-SAMはプロンプトアダプタを専用にトレーニングすることで、画像から詳細な情報を抽出し、スパースレベルとディーププロンプトレベルの両方でマスクデコーダ機能を最適化する。
実験の結果,PA-SAMは他のSAM法よりも高品質,ゼロショット,オープンセットのセグメンテーションで優れていた。
論文 参考訳(メタデータ) (2024-01-23T19:20:22Z) - Beyond Adapting SAM: Towards End-to-End Ultrasound Image Segmentation via Auto Prompting [10.308637269138146]
超音波画像分割に適したユニバーサルモデルとしてSAMUSを提案する。
さらに、AutoSAMUSと表記されるエンドツーエンドで動作できるようにします。
AutoSAMUSは、SAMUSのマニュアルプロンプトエンコーダを置き換えるために自動プロンプトジェネレータ(APG)を導入することで実現されている。
論文 参考訳(メタデータ) (2023-09-13T09:15:20Z) - AutoSAM: Adapting SAM to Medical Images by Overloading the Prompt
Encoder [101.28268762305916]
この作業では、Segment Anything Modelを同じ入力イメージで動作するエンコーダに置き換える。
複数の医用画像とビデオのベンチマークで最先端の結果を得る。
内部の知識を検査し、軽量なセグメンテーションソリューションを提供するために、浅いデコンボリューションネットワークによってマスクに復号化することを学ぶ。
論文 参考訳(メタデータ) (2023-06-10T07:27:00Z) - SAM-helps-Shadow:When Segment Anything Model meet shadow removal [8.643096072885909]
本研究では,SAM-helps-Shadowを導入し,SAM(セグメンション・アズ・モデル)を影除去に適用した。
提案手法では,2次深部展開ネットワークを用いたシャドウ除去に続いて,シャドウ検出を容易にするために,モデルの検出結果を強力な先行要因として利用した。
論文 参考訳(メタデータ) (2023-06-01T06:37:19Z) - Detect Any Shadow: Segment Anything for Video Shadow Detection [105.19693622157462]
影を検出するためのセグメンテーションモデル(SAM)を微調整するフレームワークであるShadowSAMを提案する。
長時間の注意機構と組み合わせることで、効率的な映像陰影検出が可能となる。
提案手法は,従来のビデオシャドウ検出手法と比較して高速な推論速度を示す。
論文 参考訳(メタデータ) (2023-05-26T07:39:10Z) - When SAM Meets Shadow Detection [2.9324443830722973]
我々は、探索されていない一般的なタスク、すなわちシャドウ検出に基づいて、任意のモデル(SAM)をセグメント化しようとします。
実験の結果,特に精巧なモデルと比較した場合,SAMを用いた影検出の性能は良好ではないことがわかった。
論文 参考訳(メタデータ) (2023-05-19T08:26:08Z) - Personalize Segment Anything Model with One Shot [52.54453744941516]
我々は,Segment Anything Model (SAM) のためのトレーニング不要なパーソナライズ手法を提案する。
PerSAMは、参照マスクを持つ1つのイメージしか持たないため、最初にターゲットのコンセプトを以前のロケーションでローカライズする。
PerSAMは、ターゲット誘導された注意、ターゲットセマンティックなプロンプト、そしてカスケードされたポストリファインメントという3つのテクニックを通じて、他の画像やビデオにセグメントする。
論文 参考訳(メタデータ) (2023-05-04T17:59:36Z) - SAM Fails to Segment Anything? -- SAM-Adapter: Adapting SAM in
Underperformed Scenes: Camouflage, Shadow, Medical Image Segmentation, and
More [13.047310918166762]
ドメイン固有の情報や視覚的プロンプトを,単純で効果的なアダプタを用いてセグメント化ネットワークに組み込んだtextbfSAM-Adapterを提案する。
タスク固有のネットワークモデルよりも優れていて、テストしたタスクで最先端のパフォーマンスを実現できます。
論文 参考訳(メタデータ) (2023-04-18T17:38:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。