論文の概要: When SAM Meets Shadow Detection
- arxiv url: http://arxiv.org/abs/2305.11513v1
- Date: Fri, 19 May 2023 08:26:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-22 15:24:29.811157
- Title: When SAM Meets Shadow Detection
- Title(参考訳): SAMがシャドー検出に出会ったとき
- Authors: Leiping Jie, Hui Zhang
- Abstract要約: 我々は、探索されていない一般的なタスク、すなわちシャドウ検出に基づいて、任意のモデル(SAM)をセグメント化しようとします。
実験の結果,特に精巧なモデルと比較した場合,SAMを用いた影検出の性能は良好ではないことがわかった。
- 参考スコア(独自算出の注目度): 2.9324443830722973
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As a promptable generic object segmentation model, segment anything model
(SAM) has recently attracted significant attention, and also demonstrates its
powerful performance. Nevertheless, it still meets its Waterloo when
encountering several tasks, e.g., medical image segmentation, camouflaged
object detection, etc. In this report, we try SAM on an unexplored popular
task: shadow detection. Specifically, four benchmarks were chosen and evaluated
with widely used metrics. The experimental results show that the performance
for shadow detection using SAM is not satisfactory, especially when comparing
with the elaborate models. Code is available at
https://github.com/LeipingJie/SAMSh.
- Abstract(参考訳): プロンプト可能な汎用オブジェクトセグメンテーションモデルとして、S segment Any Model (SAM) が最近注目され、その強力なパフォーマンスを示している。
それでも、医用画像のセグメンテーション、カモフラージュされた物体検出など、いくつかのタスクに遭遇すると、まだウォータールーを満たしている。
本報告では、探索されていない一般的なタスクであるシャドー検出についてSAMを試す。
具体的には、4つのベンチマークが選択され、広く使用されているメトリクスで評価された。
実験結果から,特に精巧なモデルと比較した場合,SAMを用いた影検出の性能は良好ではないことがわかった。
コードはhttps://github.com/LeipingJie/SAMSh.comで入手できる。
関連論文リスト
- MAS-SAM: Segment Any Marine Animal with Aggregated Features [55.91291540810978]
そこで本研究では,海洋生物のセグメンテーションのためのMAS-SAMという新しい特徴学習フレームワークを提案する。
本手法により,グローバルな文脈的手がかりからよりリッチな海洋情報を抽出し,よりきめ細かな局部的詳細を抽出できる。
論文 参考訳(メタデータ) (2024-04-24T07:38:14Z) - Moving Object Segmentation: All You Need Is SAM (and Flow) [82.78026782967959]
SAMのセグメンテーション能力と移動物体の発見・グループ化能力を利用する光フローとSAMを組み合わせた2つのモデルについて検討する。
第1のモデルでは、RGBではなく光の流れを入力としてSAMに適応させ、第2のモデルではRGBを入力として、フローをセグメント化プロンプトとして使用する。
これらの驚くほど単純な方法は、追加の修正なしに、シングルオブジェクトとマルチオブジェクトのベンチマークにおいて、以前のアプローチをかなり上回っている。
論文 参考訳(メタデータ) (2024-04-18T17:59:53Z) - TinySAM: Pushing the Envelope for Efficient Segment Anything Model [76.21007576954035]
我々は,強力なゼロショット性能を維持しつつ,小さなセグメントの任意のモデル(TinySAM)を得るためのフレームワークを提案する。
本研究は,まず,軽量学生モデルを蒸留するためのハードプロンプトサンプリングとハードマスク重み付け戦略を用いた,フルステージの知識蒸留法を提案する。
また、学習後の量子化を高速化可能なセグメンテーションタスクに適用し、計算コストをさらに削減する。
論文 参考訳(メタデータ) (2023-12-21T12:26:11Z) - AdapterShadow: Adapting Segment Anything Model for Shadow Detection [6.201928340999525]
Segment Any Model (SAM)は、ユニバーサルオブジェクトのセグメンテーションにおいて、その壮大なパフォーマンスを示している。
しかし、医用画像の影画像や病変など特定のターゲットを特定できない。
影検出にSAMモデルを適用するAdapterShadowを提案する。
論文 参考訳(メタデータ) (2023-11-15T11:51:10Z) - Detect Any Shadow: Segment Anything for Video Shadow Detection [105.19693622157462]
影を検出するためのセグメンテーションモデル(SAM)を微調整するフレームワークであるShadowSAMを提案する。
長時間の注意機構と組み合わせることで、効率的な映像陰影検出が可能となる。
提案手法は,従来のビデオシャドウ検出手法と比較して高速な推論速度を示す。
論文 参考訳(メタデータ) (2023-05-26T07:39:10Z) - SAMRS: Scaling-up Remote Sensing Segmentation Dataset with Segment
Anything Model [85.85899655118087]
我々はSAMRSと呼ばれる大規模RSセグメンテーションデータセットを生成するための効率的なパイプラインを開発する。
SAMRSは完全に105,090の画像と1,668,241のインスタンスを持ち、既存の高解像度RSセグメンテーションデータセットを数桁上回っている。
論文 参考訳(メタデータ) (2023-05-03T10:58:07Z) - Segment anything, from space? [8.126645790463266]
SAM(Segment Anything Model)は、安価な入力プロンプトに基づいて、入力画像中のオブジェクトをセグメント化することができる。
SAMは通常、目標タスクで訓練された視覚モデルに似た、あるいは時として超えた認識精度を達成した。
SAMの性能が画像のオーバーヘッド問題にまで及んでいるかどうかを考察し、その開発に対するコミュニティの反応を導くのに役立てる。
論文 参考訳(メタデータ) (2023-04-25T17:14:36Z) - Can SAM Count Anything? An Empirical Study on SAM Counting [35.42720382193184]
本研究は,Segment Anything Model (SAM) を用いて,オブジェクトを数える際の課題について検討する。
SAMのパフォーマンスは、特に小さくて混み合ったオブジェクトに対して、さらに微調整をすることなく満足できないことが分かりました。
論文 参考訳(メタデータ) (2023-04-21T08:59:48Z) - SAM Fails to Segment Anything? -- SAM-Adapter: Adapting SAM in
Underperformed Scenes: Camouflage, Shadow, Medical Image Segmentation, and
More [13.047310918166762]
ドメイン固有の情報や視覚的プロンプトを,単純で効果的なアダプタを用いてセグメント化ネットワークに組み込んだtextbfSAM-Adapterを提案する。
タスク固有のネットワークモデルよりも優れていて、テストしたタスクで最先端のパフォーマンスを実現できます。
論文 参考訳(メタデータ) (2023-04-18T17:38:54Z) - SAM Struggles in Concealed Scenes -- Empirical Study on "Segment
Anything" [132.31628334155118]
Segment Anything Model (SAM) はコンピュータビジョンの基礎モデルである。
本報告では,隠れた3つのシーン,すなわちカモフラージュされた動物,工業的欠陥,医療的障害を選択し,SAMを未開の環境下で評価する。
私たちの主な観察は、SAMが隠されたシーンでスキルを欠いているように見えることです。
論文 参考訳(メタデータ) (2023-04-12T17:58:03Z) - Can SAM Segment Anything? When SAM Meets Camouflaged Object Detection [8.476593072868056]
SAMはMeta AI Researchが最近リリースしたセグメンテーションモデルである。
我々は,SAMがカモフラージュオブジェクト検出(COD)タスクに対処できるかどうかを問うとともに,SAMの性能をCODベンチマークで評価する。
また,SAMの性能を22の最先端COD法と比較した。
論文 参考訳(メタデータ) (2023-04-10T17:05:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。