論文の概要: SAM-TTT: Segment Anything Model via Reverse Parameter Configuration and Test-Time Training for Camouflaged Object Detection
- arxiv url: http://arxiv.org/abs/2509.11884v1
- Date: Mon, 15 Sep 2025 13:02:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-16 17:26:23.294903
- Title: SAM-TTT: Segment Anything Model via Reverse Parameter Configuration and Test-Time Training for Camouflaged Object Detection
- Title(参考訳): SAM-TTT:カモフラージュ物体検出のための逆パラメータ構成とテスト時間トレーニングによるセグメント任意のモデル
- Authors: Zhenni Yu, Li Zhao, Guobao Xiao, Xiaoqin Zhang,
- Abstract要約: 本稿では、逆パラメータ設定とテスト時間トレーニングを利用して、Camouflaged Object Detection(COD)の性能を向上させる新しいSegment Anything Model(SAM)を提案する。
種々のCODベンチマークによる実験結果から,提案手法が最先端性能を達成し,新たなベンチマークを現場に設置できることが示されている。
- 参考スコア(独自算出の注目度): 31.28855600678807
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper introduces a new Segment Anything Model (SAM) that leverages reverse parameter configuration and test-time training to enhance its performance on Camouflaged Object Detection (COD), named SAM-TTT. While most existing SAM-based COD models primarily focus on enhancing SAM by extracting favorable features and amplifying its advantageous parameters, a crucial gap is identified: insufficient attention to adverse parameters that impair SAM's semantic understanding in downstream tasks. To tackle this issue, the Reverse SAM Parameter Configuration Module is proposed to effectively mitigate the influence of adverse parameters in a train-free manner by configuring SAM's parameters. Building on this foundation, the T-Visioner Module is unveiled to strengthen advantageous parameters by integrating Test-Time Training layers, originally developed for language tasks, into vision tasks. Test-Time Training layers represent a new class of sequence modeling layers characterized by linear complexity and an expressive hidden state. By integrating two modules, SAM-TTT simultaneously suppresses adverse parameters while reinforcing advantageous ones, significantly improving SAM's semantic understanding in COD task. Our experimental results on various COD benchmarks demonstrate that the proposed approach achieves state-of-the-art performance, setting a new benchmark in the field. The code will be available at https://github.com/guobaoxiao/SAM-TTT.
- Abstract(参考訳): 本稿では,逆パラメータ設定とテスト時間トレーニングを活用して,SAM-TTT と呼ばれるCamouflaged Object Detection (COD) の性能を向上させる新しい Segment Anything Model (SAM) を提案する。
多くの既存のSAMベースのCODモデルは、好適な特徴を抽出し、その有利なパラメータを増幅することによってSAMの強化に重点を置いているが、重要なギャップは、SAMの下流タスクにおける意味的理解を損なう有害なパラメータへの注意不足である。
この問題を解決するために, SAMパラメータ設定モジュールを提案し, SAMパラメータの設定により, 有害パラメータの影響を効果的に緩和する。
この基盤の上に構築されたT-Visioner Moduleは、もともと言語タスク用に開発されたTest-Time Trainingレイヤを視覚タスクに統合することで、有利なパラメータを強化するために公開された。
テスト時間トレーニングレイヤは、線形複雑性と表現力のある隠蔽状態によって特徴づけられる新しいシーケンスモデリングレイヤのクラスを表す。
2つのモジュールを統合することで、SAM-TTTは、有利なモジュールを強化しながら、有害なパラメータを同時に抑制し、CODタスクにおけるSAMの意味的理解を大幅に改善する。
種々のCODベンチマークによる実験結果から,提案手法が最先端性能を達成し,新たなベンチマークを現場に設置できることが示されている。
コードはhttps://github.com/guobaoxiao/SAM-TTTで入手できる。
関連論文リスト
- ST-SAM: SAM-Driven Self-Training Framework for Semi-Supervised Camouflaged Object Detection [14.06736878203419]
半教師付きCamouflaged Object Detection (SSCOD) は、高価なピクセルレベルのアノテーションへの依存を減らすことを目的としている。
既存のSSCOD法では, 厳密な予測バイアスと誤差伝播に悩まされている。
アノテーション効率が高いが簡潔なフレームワークST-SAMを提案する。
論文 参考訳(メタデータ) (2025-07-31T07:41:30Z) - LightSAM: Parameter-Agnostic Sharpness-Aware Minimization [92.17866492331524]
シャープネス・アウェアの最小化(SAM)は、重量摂動を通して平らなミニマランドスケープを探索することにより、機械学習モデルの能力を高める。
SAMはさらなるハイパーパラメータ、摂動半径を導入し、SAMの感度を誘導する。
本稿では,SAMの摂動半径と学習速度を適応的に設定するアルゴリズムLightSAMを提案する。
論文 参考訳(メタデータ) (2025-05-30T09:28:38Z) - TS-SAM: Fine-Tuning Segment-Anything Model for Downstream Tasks [10.75125721857487]
微調整されたSAMとドメイン固有のモデルの間には、依然として大きなパフォーマンスギャップがあります。
本稿では,SAM の強力な特徴をサイドネットワークトレーニングに統合し,包括的特徴融合を実現する Two-Stream SAM (TS-SAM) を提案する。
3つのタスクから得られた10の公開データセットに対する大規模な実験により、TS-SAMは、最近提案されたSAM-AdapterとSSOMよりも大幅に優れているだけでなく、SOTAドメイン固有のモデルとの競合性能も達成している。
論文 参考訳(メタデータ) (2024-08-03T18:08:51Z) - SAM-PM: Enhancing Video Camouflaged Object Detection using Spatio-Temporal Attention [0.0]
Segment Anything Model (SAM) は画像セグメンテーションにおける異常な性能で注目されている。
カモフラージュされた物体は一般的に背景に溶け込み、静止画では区別が難しい。
これらの課題を克服するために,SAMスパイダーモジュール (SAM-PM) と呼ばれる新しい手法を提案する。
本手法は,SAMのパラメータの1%未満の追加で,時間的一貫性とドメイン固有の専門知識をセグメンテーションネットワークに効果的に組み込む。
論文 参考訳(メタデータ) (2024-06-09T14:33:38Z) - Stable Segment Anything Model [79.9005670886038]
SAM(Segment Anything Model)は、高品質なプロンプトが与えられた場合、顕著に迅速なセグメンテーションを実現する。
本稿では,SAMのセグメンテーション安定性について,多様なプロンプト特性のスペクトルにわたって包括的解析を行った。
1)SAMのセグメンテーション安定性を広範囲に改善し,2)SAMの強力なセグメンテーション効率と一般化を維持した。
論文 参考訳(メタデータ) (2023-11-27T12:51:42Z) - SAM-PARSER: Fine-tuning SAM Efficiently by Parameter Space
Reconstruction [53.871596866809725]
Segment Anything Model (SAM)は、画像中のオブジェクトのセグメンテーションに強力で汎用的なソリューションを提供するため、注目されている。
パラメータ空間再構成(SAM-PARSER)によるSAMの微調整を効率的に行うことを提案する。
行列分解により基底を求め、その係数を微調整し、基底の最適線形結合により新しいシナリオに合わせたパラメータ空間を再構成する。
論文 参考訳(メタデータ) (2023-08-28T14:17:16Z) - Improved Deep Neural Network Generalization Using m-Sharpness-Aware
Minimization [14.40189851070842]
シャープネス・アウェア最小化(SAM)は、基礎となる損失関数を修正し、フラットなミニマへ導出する方法を導出する。
近年の研究ではmSAMがSAMよりも精度が高いことが示唆されている。
本稿では,様々なタスクやデータセットにおけるmSAMの包括的評価について述べる。
論文 参考訳(メタデータ) (2022-12-07T00:37:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。