論文の概要: ZS-VCOS: Zero-Shot Outperforms Supervised Video Camouflaged Object Segmentation
- arxiv url: http://arxiv.org/abs/2505.01431v1
- Date: Thu, 10 Apr 2025 06:24:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-11 11:26:45.178042
- Title: ZS-VCOS: Zero-Shot Outperforms Supervised Video Camouflaged Object Segmentation
- Title(参考訳): ZS-VCOS:ビデオカモフラージュされたオブジェクトセグメンテーションのゼロショット性能
- Authors: Wenqi Guo, Shan Du,
- Abstract要約: カモフラージュされたオブジェクトセグメンテーションは、伝統的なセグメンテーションタスクと比較してユニークな課題を提示する。
本手法では,視覚言語モデルである光フローとSAM 2を逐次パイプラインに統合する。
MoCA-Maskデータセットの評価では、成功率は0.628から0.697に増加した。
- 参考スコア(独自算出の注目度): 8.381844442919538
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Camouflaged object segmentation presents unique challenges compared to traditional segmentation tasks, primarily due to the high similarity in patterns and colors between camouflaged objects and their backgrounds. Effective solutions to this problem have significant implications in critical areas such as pest control, defect detection, and lesion segmentation in medical imaging. Prior research has predominantly emphasized supervised or unsupervised pre-training methods, leaving zero-shot approaches significantly underdeveloped. Existing zero-shot techniques commonly utilize the Segment Anything Model (SAM) in automatic mode or rely on vision-language models to generate cues for segmentation; however, their performances remain unsatisfactory, likely due to the similarity of the camouflaged object and the background. Optical flow, commonly utilized for detecting moving objects, has demonstrated effectiveness even with camouflaged entities. Our method integrates optical flow, a vision-language model, and SAM 2 into a sequential pipeline. Evaluated on the MoCA-Mask dataset, our approach achieves outstanding performance improvements, significantly outperforming existing zero-shot methods by raising the F-measure ($F_\beta^w$) from 0.296 to 0.628. Remarkably, our approach also surpasses supervised methods, increasing the F-measure from 0.476 to 0.628. Additionally, evaluation on the MoCA-Filter dataset demonstrates an increase in the success rate from 0.628 to 0.697 when compared with FlowSAM, a supervised transfer method. A thorough ablation study further validates the individual contributions of each component. More details can be found on https://github.com/weathon/vcos.
- Abstract(参考訳): カモフラージュされたオブジェクトセグメンテーションは、主にカモフラージュされたオブジェクトとその背景のパターンと色に高い類似性があるため、伝統的なセグメンテーションタスクと比較して、ユニークな課題を示す。
この問題に対する効果的な解決策は、医療画像における害虫の制御、欠陥検出、病変のセグメンテーションといった重要な領域に重大な影響を及ぼす。
以前の研究では、主に教師なしまたは教師なしの事前訓練方法を強調しており、ゼロショットアプローチは著しく未発達のままである。
既存のゼロショット技術は、自動モードでSegment Anything Model(SAM)を利用するか、または視覚言語モデルを使ってセグメンテーションの手がかりを生成するが、その性能はカモフラージュされたオブジェクトと背景の類似性のため不満足なままである。
移動物体の検出に一般的に使用される光流は, 擬似物体であっても有効であることを示す。
本手法は,視覚言語モデルである光フローとSAM 2を逐次パイプラインに統合する。
提案手法は,MoCA-Maskデータセットで評価され,既存のゼロショット法よりも優れた性能を示し,F値(F_\beta^w$)を0.296から0.628に引き上げた。
また,本手法は教師付き手法を超越し,F値が0.476から0.628に増加した。
さらに、MoCA-Filterデータセットの評価では、教師あり転送方式であるFlowSAMと比較すると、0.628から0.697への成功率の増加が示されている。
徹底的なアブレーション研究は、各コンポーネントの個々のコントリビューションをさらに検証する。
詳細はhttps://github.com/weathon/vcos.comで確認できる。
関連論文リスト
- Promptable Anomaly Segmentation with SAM Through Self-Perception Tuning [63.55145330447408]
異常セグメンテーションのための textbfSelf-textbfPerceptinon textbfTuning (textbfSPT) 法を提案する。
SPT法は, 自己描画型チューニング戦略を取り入れ, 異常マスクの初期粗いドラフトを生成し, 精製処理を行う。
論文 参考訳(メタデータ) (2024-11-26T08:33:25Z) - Unleashing the Power of Generic Segmentation Models: A Simple Baseline for Infrared Small Target Detection [57.666055329221194]
本稿では,Segment Anything Model (SAM) などのジェネリックセグメンテーションモデルの赤外線小物体検出タスクへの適応について検討する。
提案モデルでは,既存の手法と比較して,精度とスループットの両方で性能が大幅に向上した。
論文 参考訳(メタデータ) (2024-09-07T05:31:24Z) - Unsupervised Fault Detection using SAM with a Moving Window Approach [0.0]
本稿では、SAM(High End Segment Anything Model)と移動ウィンドウアプローチを用いた教師なし手法を提案する。
我々は、微調整やラベル付きデータを必要とせずに、これらの課題を克服することを目指している。
論文 参考訳(メタデータ) (2024-07-08T18:12:29Z) - NubbleDrop: A Simple Way to Improve Matching Strategy for Prompted One-Shot Segmentation [2.2559617939136505]
マッチング戦略の有効性とロバスト性を高めるための,単純で訓練のない手法を提案する。
中心となる概念は、マッチングプロセス中にランダムに特徴チャネル(0に設定する)をドロップすることである。
この手法は、病理的なヌブルの破棄を模倣し、他の類似性コンピューティングのシナリオにシームレスに適用することができる。
論文 参考訳(メタデータ) (2024-05-19T08:00:38Z) - SIRST-5K: Exploring Massive Negatives Synthesis with Self-supervised
Learning for Robust Infrared Small Target Detection [53.19618419772467]
単一フレーム赤外線小ターゲット検出(SIRST)は、乱雑な背景から小さなターゲットを認識することを目的としている。
Transformerの開発に伴い、SIRSTモデルのスケールは常に増大している。
赤外線小ターゲットデータの多彩な多様性により,本アルゴリズムはモデル性能と収束速度を大幅に改善する。
論文 参考訳(メタデータ) (2024-03-08T16:14:54Z) - Diffusion-Based Particle-DETR for BEV Perception [94.88305708174796]
Bird-Eye-View (BEV)は、自律走行車(AV)における視覚知覚のための最も広く使われているシーンの1つである。
近年の拡散法は、視覚知覚のための不確実性モデリングに有望なアプローチを提供するが、BEVの広い範囲において、小さな物体を効果的に検出することができない。
本稿では,BEVにおける拡散パラダイムと最先端の3Dオブジェクト検出器を組み合わせることで,この問題に対処する。
論文 参考訳(メタデータ) (2023-12-18T09:52:14Z) - USD: Unknown Sensitive Detector Empowered by Decoupled Objectness and
Segment Anything Model [14.080744645704751]
Open World Object Detection (OWOD) は、新しいコンピュータビジョンタスクである。
本稿では,この2つの境界の学習をデコーダ層に分割する,シンプルで効果的な学習戦略であるDecoupled Objectness Learning(DOL)を提案する。
また、擬似ラベルとソフトウェイト戦略を用いてノイズの負の影響を緩和する補助的スーパービジョンフレームワーク(ASF)も導入する。
論文 参考訳(メタデータ) (2023-06-04T06:42:09Z) - CamoDiffusion: Camouflaged Object Detection via Conditional Diffusion
Models [72.93652777646233]
カモフラーゲ型物体検出(COD)は、カモフラーゲ型物体とその周囲の類似性が高いため、コンピュータビジョンにおいて難しい課題である。
本研究では,CODを拡散モデルを利用した条件付きマスク生成タスクとして扱う新しいパラダイムを提案する。
カモ拡散(CamoDiffusion)と呼ばれる本手法では,拡散モデルのデノナイズプロセスを用いてマスクの雑音を反復的に低減する。
論文 参考訳(メタデータ) (2023-05-29T07:49:44Z) - Scale-Equivalent Distillation for Semi-Supervised Object Detection [57.59525453301374]
近年のSemi-Supervised Object Detection (SS-OD) 法は主に自己学習に基づいており、教師モデルにより、ラベルなしデータを監視信号としてハードな擬似ラベルを生成する。
実験結果から,これらの手法が直面する課題を分析した。
本稿では,大規模オブジェクトサイズの分散とクラス不均衡に頑健な簡易かつ効果的なエンド・ツー・エンド知識蒸留フレームワークであるSED(Scale-Equivalent Distillation)を提案する。
論文 参考訳(メタデータ) (2022-03-23T07:33:37Z) - Adversarial Detection without Model Information [4.4890837610757695]
簡単なエネルギー関数を用いたモデル独立逆方向検出法を提案する。
我々は,自然および逆入力に対応するエネルギー分離を高めるために,逐次的な層回りのトレーニングを施し,基礎モデルに依存しない独立検出器を訓練する。
本手法は, 幅広い勾配, スコア, 判定に基づく敵攻撃に対して, 最先端検出性能(ROC-AUC > 0.9)を実現する。
論文 参考訳(メタデータ) (2022-02-09T04:38:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。