論文の概要: Promoting SAM for Camouflaged Object Detection via Selective Key Point-based Guidance
- arxiv url: http://arxiv.org/abs/2505.09123v1
- Date: Wed, 14 May 2025 04:09:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-15 21:44:09.372277
- Title: Promoting SAM for Camouflaged Object Detection via Selective Key Point-based Guidance
- Title(参考訳): 選択的キーポイント誘導によるカモフラージュ物体検出のためのSAMの促進
- Authors: Guoying Liang, Su Yang,
- Abstract要約: 本研究は,Segment Anything Model(SAM)を利用したCOD(Camouflaged Object Detection)に取り組む。
我々は,画像上の候補点における擬似物体の存在の確率を予測するために,マルチスケールの特徴を利用するプロモートポイントターゲティングネットワーク(PPT-net)を開発した。
CODのビッグデータを促進するための最初の取り組みであり、6つのメトリクスの3つのデータセット上の既存のメソッドに対して実験的に検証可能な結果が得られる。
- 参考スコア(独自算出の注目度): 4.942726787539676
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Big model has emerged as a new research paradigm that can be applied to various down-stream tasks with only minor effort for domain adaption. Correspondingly, this study tackles Camouflaged Object Detection (COD) leveraging the Segment Anything Model (SAM). The previous studies declared that SAM is not workable for COD but this study reveals that SAM works if promoted properly, for which we devise a new framework to render point promotions: First, we develop the Promotion Point Targeting Network (PPT-net) to leverage multi-scale features in predicting the probabilities of camouflaged objects' presences at given candidate points over the image. Then, we develop a key point selection (KPS) algorithm to deploy both positive and negative point promotions contrastively to SAM to guide the segmentation. It is the first work to facilitate big model for COD and achieves plausible results experimentally over the existing methods on 3 data sets under 6 metrics. This study demonstrates an off-the-shelf methodology for COD by leveraging SAM, which gains advantage over designing professional models from scratch, not only in performance, but also in turning the problem to a less challenging task, that is, seeking informative but not exactly precise promotions.
- Abstract(参考訳): ビッグモデルは、ドメイン適応のための小さな努力だけで、さまざまな下流タスクに適用できる新しい研究パラダイムとして登場した。
本研究は,Segment Anything Model(SAM)を利用したCOD(Camouflaged Object Detection)に取り組む。
従来の研究では、SAMはCODには適さないとしていたが、本研究ではSAMが適切にプロモートされた場合に機能し、ポイントプロモーションをレンダリングする新しいフレームワークを考案したことを明らかにした。
そこで我々は,鍵点選択(KPS)アルゴリズムを開発し,正点と負点の両方のプロモーションをSAMと対照的に展開し,セグメンテーションを導出する。
CODのビッグデータを促進するための最初の取り組みであり、6つのメトリクスの3つのデータセット上の既存のメソッドに対して実験的に検証可能な結果が得られる。
本研究は、SAMを利用してCODの既製の方法論を実証する。これは、パフォーマンスだけでなく、問題をより難解なタスク、すなわち、情報的だが正確なプロモーションを追求する上でも、スクラッチからプロのモデルを設計するよりも有利である。
関連論文リスト
- On Efficient Variants of Segment Anything Model: A Survey [63.127753705046]
Segment Anything Model (SAM) は画像分割タスクの基本モデルであり、多様なアプリケーションにまたがる強力な一般化で知られている。
これを解決するために、精度を保ちながら効率を高めるために様々なSAM変種が提案されている。
この調査は、これらの効率的なSAM変種に関する最初の包括的なレビューを提供する。
論文 参考訳(メタデータ) (2024-10-07T11:59:54Z) - Unleashing the Power of Generic Segmentation Models: A Simple Baseline for Infrared Small Target Detection [57.666055329221194]
本稿では,Segment Anything Model (SAM) などのジェネリックセグメンテーションモデルの赤外線小物体検出タスクへの適応について検討する。
提案モデルでは,既存の手法と比較して,精度とスループットの両方で性能が大幅に向上した。
論文 参考訳(メタデータ) (2024-09-07T05:31:24Z) - When 3D Partial Points Meets SAM: Tooth Point Cloud Segmentation with Sparse Labels [39.54551717450374]
歯点クラウドセグメンテーションは多くの矯正用アプリケーションにおいて基本的なタスクである。
近年, 3次元セグメンテーションに弱いラベルを用い, 有望な結果を得る方法が提案されている。
本稿では,SAMTooth という名前のフレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-03T08:14:56Z) - ASAM: Boosting Segment Anything Model with Adversarial Tuning [9.566046692165884]
本稿では, 対角的チューニングにより基礎モデルの性能を増幅する新しい手法であるASAMを紹介する。
我々は,自然言語処理における実装の成功に触発された,自然対逆例の可能性を生かした。
本手法は, 対向例のフォトリアリズムを維持し, 元のマスクアノテーションとの整合性を確保する。
論文 参考訳(メタデータ) (2024-05-01T00:13:05Z) - GoodSAM: Bridging Domain and Capacity Gaps via Segment Anything Model for Distortion-aware Panoramic Semantic Segmentation [22.344399402787644]
本稿では,新しい課題に取り組み,新たなセグメンテーションモデル(SAM)から知識を伝達する方法について述べる。
そこで我々は,サンブルロジットを生成するためにSAMと統合された意味情報を提供する教師アシスタント(TA)を導入したGoodSAMというフレームワークを提案する。
2つのベンチマーク実験により、我々のGoodSAMは最先端(SOTA)ドメイン適応法よりも3.75%のmIoU改善を実現していることが示された。
論文 参考訳(メタデータ) (2024-03-25T02:30:32Z) - TinySAM: Pushing the Envelope for Efficient Segment Anything Model [73.06322749886483]
我々は,強力なゼロショット性能を維持しつつ,小さなセグメントの任意のモデル(TinySAM)を得るためのフレームワークを提案する。
これらすべての提案手法により、TinySAMは計算量を大幅に削減し、エンベロープを効率的なセグメント化タスクにプッシュする。
論文 参考訳(メタデータ) (2023-12-21T12:26:11Z) - Boosting Segment Anything Model Towards Open-Vocabulary Learning [69.24734826209367]
Segment Anything Model (SAM)は、新しいパラダイムビジョン基盤モデルとして登場した。
SAMは様々な領域で応用や適応を発見できるが、その主な制限はオブジェクトの意味を把握できないことである。
我々は,SAMとオープン語彙オブジェクト検出器をエンドツーエンドフレームワークでシームレスに統合するSamborを提案する。
論文 参考訳(メタデータ) (2023-12-06T17:19:00Z) - SAM-6D: Segment Anything Model Meets Zero-Shot 6D Object Pose Estimation [45.951483980557825]
SAM-6Dは,インスタンス分割とポーズ推定を含む2つのステップでタスクを実現するように設計された新しいフレームワークである。
SAM-6Dは、対象オブジェクトが与えられた場合、インスタンスモデル(ISM)とポス推定モデル(PEM)の2つの専用サブネットワークを使用する。
ISMはSAMを先進的な出発点として、すべての可能なオブジェクトの提案を生成し、有効なものを選択的に保存する。
PEMは、背景トークンの新しい設計を特徴とする2段階の点マッチングプロセスを実行し、密集した3D-3D対応を構築する。
論文 参考訳(メタデータ) (2023-11-27T10:50:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。