論文の概要: Can SAM Count Anything? An Empirical Study on SAM Counting
- arxiv url: http://arxiv.org/abs/2304.10817v1
- Date: Fri, 21 Apr 2023 08:59:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-24 15:19:13.086292
- Title: Can SAM Count Anything? An Empirical Study on SAM Counting
- Title(参考訳): SAMは何でもできるのか?
SAM計数に関する実証的研究
- Authors: Zhiheng Ma and Xiaopeng Hong and Qinnan Shangguan
- Abstract要約: 本研究は,Segment Anything Model (SAM) を用いて,オブジェクトを数える際の課題について検討する。
SAMのパフォーマンスは、特に小さくて混み合ったオブジェクトに対して、さらに微調整をすることなく満足できないことが分かりました。
- 参考スコア(独自算出の注目度): 35.42720382193184
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Meta AI recently released the Segment Anything model (SAM), which has
garnered attention due to its impressive performance in class-agnostic
segmenting. In this study, we explore the use of SAM for the challenging task
of few-shot object counting, which involves counting objects of an unseen
category by providing a few bounding boxes of examples. We compare SAM's
performance with other few-shot counting methods and find that it is currently
unsatisfactory without further fine-tuning, particularly for small and crowded
objects. Code can be found at
\url{https://github.com/Vision-Intelligence-and-Robots-Group/count-anything}.
- Abstract(参考訳): Meta AIは最近Segment Anything Model(SAM)をリリースした。
本研究では,いくつかの実例を例に示して,未知のカテゴリのオブジェクトを数えることを含む,少数ショットオブジェクトカウントの難題に対するSAMの利用について検討する。
我々はSAMの性能を他の数ショットカウント法と比較し、特に小さくて混み合ったオブジェクトに対して、さらなる微調整をすることなく、現在満足できないことを発見した。
コードは \url{https://github.com/Vision-Intelligence-and-Robots-Group/count-anything} で見ることができる。
関連論文リスト
- SAM-IF: Leveraging SAM for Incremental Few-Shot Instance Segmentation [1.1141688859736805]
SAM-IFはSegment Anything Model(SAM)を利用したインクリメンタルな少数ショットインスタンスセグメンテーション手法である。
提案手法は,既存手法と比較して,競争力はあるものの合理的な結果が得られる。
論文 参考訳(メタデータ) (2024-12-15T03:11:41Z) - Multi-Scale and Detail-Enhanced Segment Anything Model for Salient Object Detection [58.241593208031816]
Segment Anything Model (SAM) は、強力なセグメンテーションと一般化機能を提供する視覚的基本モデルとして提案されている。
実物検出のためのMDSAM(Multi-scale and Detail-enhanced SAM)を提案する。
実験により,複数のSODデータセット上でのモデルの優れた性能が示された。
論文 参考訳(メタデータ) (2024-08-08T09:09:37Z) - SAM-CP: Marrying SAM with Composable Prompts for Versatile Segmentation [88.80792308991867]
Segment Anything Model (SAM)は、イメージピクセルをパッチにグループ化する機能を示しているが、セグメンテーションにそれを適用することは依然として大きな課題に直面している。
本稿では,SAM-CPを提案する。SAM-CPはSAM以外の2種類の構成可能なプロンプトを確立し,多目的セグメンテーションのために構成する単純な手法である。
実験により、SAM-CPはオープンドメインとクローズドドメインの両方においてセマンティック、例、およびパノプティックセグメンテーションを達成することが示された。
論文 参考訳(メタデータ) (2024-07-23T17:47:25Z) - Crowd-SAM: SAM as a Smart Annotator for Object Detection in Crowded Scenes [18.244508068200236]
Crowd-SAMは、混み合ったシーンでSAMのパフォーマンスを高めるために設計されたフレームワークである。
混み合ったシーンにおけるマスク選択と精度を高めるために,効率的なプロンプトサンプリング (EPS) とPWD-Net (Part-whole discrimination network) を導入する。
Crowd-SAMは、CrowdHumanやCityPersonsなどいくつかのベンチマークにおいて、最先端のSOTA(State-of-the-art)と競合する。
論文 参考訳(メタデータ) (2024-07-16T08:00:01Z) - Moving Object Segmentation: All You Need Is SAM (and Flow) [82.78026782967959]
SAMのセグメンテーション能力と移動物体の発見・グループ化能力を利用する光フローとSAMを組み合わせた2つのモデルについて検討する。
第1のモデルでは、RGBではなく光の流れを入力としてSAMに適応させ、第2のモデルではRGBを入力として、フローをセグメント化プロンプトとして使用する。
これらの驚くほど単純な方法は、追加の修正なしに、シングルオブジェクトとマルチオブジェクトのベンチマークにおいて、以前のアプローチをかなり上回っている。
論文 参考訳(メタデータ) (2024-04-18T17:59:53Z) - TinySAM: Pushing the Envelope for Efficient Segment Anything Model [73.06322749886483]
我々は,強力なゼロショット性能を維持しつつ,小さなセグメントの任意のモデル(TinySAM)を得るためのフレームワークを提案する。
これらすべての提案手法により、TinySAMは計算量を大幅に削減し、エンベロープを効率的なセグメント化タスクにプッシュする。
論文 参考訳(メタデータ) (2023-12-21T12:26:11Z) - Boosting Segment Anything Model Towards Open-Vocabulary Learning [69.24734826209367]
Segment Anything Model (SAM)は、新しいパラダイムビジョン基盤モデルとして登場した。
SAMは様々な領域で応用や適応を発見できるが、その主な制限はオブジェクトの意味を把握できないことである。
我々は,SAMとオープン語彙オブジェクト検出器をエンドツーエンドフレームワークでシームレスに統合するSamborを提案する。
論文 参考訳(メタデータ) (2023-12-06T17:19:00Z) - When SAM Meets Shadow Detection [2.9324443830722973]
我々は、探索されていない一般的なタスク、すなわちシャドウ検出に基づいて、任意のモデル(SAM)をセグメント化しようとします。
実験の結果,特に精巧なモデルと比較した場合,SAMを用いた影検出の性能は良好ではないことがわかった。
論文 参考訳(メタデータ) (2023-05-19T08:26:08Z) - Segment Anything Model (SAM) Meets Glass: Mirror and Transparent Objects
Cannot Be Easily Detected [41.04927631258873]
コンピュータビジョンの基礎モデルとしてSAM (Segment Anything Model) が注目されている。
幅広いゼロショット転送タスクの強い能力にもかかわらず、SAMが透明なオブジェクトのような挑戦的なセットアップで何かを検出できるかどうかは不明だ。
論文 参考訳(メタデータ) (2023-04-29T15:27:57Z) - Can SAM Segment Anything? When SAM Meets Camouflaged Object Detection [8.476593072868056]
SAMはMeta AI Researchが最近リリースしたセグメンテーションモデルである。
我々は,SAMがカモフラージュオブジェクト検出(COD)タスクに対処できるかどうかを問うとともに,SAMの性能をCODベンチマークで評価する。
また,SAMの性能を22の最先端COD法と比較した。
論文 参考訳(メタデータ) (2023-04-10T17:05:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。