論文の概要: Vanish into Thin Air: Cross-prompt Universal Adversarial Attacks for SAM2
- arxiv url: http://arxiv.org/abs/2510.24195v1
- Date: Tue, 28 Oct 2025 08:59:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-29 15:35:36.912814
- Title: Vanish into Thin Air: Cross-prompt Universal Adversarial Attacks for SAM2
- Title(参考訳): Vanish into Thin Air: SAM2のクロスプロンプトなユニバーサル敵攻撃
- Authors: Ziqi Zhou, Yifan Hu, Yufei Song, Zijing Li, Shengshan Hu, Leo Yu Zhang, Dezhong Yao, Long Zheng, Hai Jin,
- Abstract要約: UAP-SAM2は,2つの意味的偏差によって駆動されるSAM2に対する最初のクロスプロンプト的普遍的敵攻撃である。
UAP-SAM2は, 最先端(SOTA)攻撃に対して, 大差で有意に優れていた。
- 参考スコア(独自算出の注目度): 48.71856814549096
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent studies reveal the vulnerability of the image segmentation foundation model SAM to adversarial examples. Its successor, SAM2, has attracted significant attention due to its strong generalization capability in video segmentation. However, its robustness remains unexplored, and it is unclear whether existing attacks on SAM can be directly transferred to SAM2. In this paper, we first analyze the performance gap of existing attacks between SAM and SAM2 and highlight two key challenges arising from their architectural differences: directional guidance from the prompt and semantic entanglement across consecutive frames. To address these issues, we propose UAP-SAM2, the first cross-prompt universal adversarial attack against SAM2 driven by dual semantic deviation. For cross-prompt transferability, we begin by designing a target-scanning strategy that divides each frame into k regions, each randomly assigned a prompt, to reduce prompt dependency during optimization. For effectiveness, we design a dual semantic deviation framework that optimizes a UAP by distorting the semantics within the current frame and disrupting the semantic consistency across consecutive frames. Extensive experiments on six datasets across two segmentation tasks demonstrate the effectiveness of the proposed method for SAM2. The comparative results show that UAP-SAM2 significantly outperforms state-of-the-art (SOTA) attacks by a large margin.
- Abstract(参考訳): 近年の研究では、画像分割基盤モデルSAMの脆弱性を逆例に明らかにしている。
その後継であるSAM2は、ビデオセグメンテーションにおける強力な一般化能力のために大きな注目を集めている。
しかし、その堅牢性はまだ解明されておらず、SAMに対する既存の攻撃がSAM2に直接転送できるかどうかは不明である。
本稿では,SAM と SAM2 の既存攻撃の性能ギャップをまず解析し,そのアーキテクチャ的差異から生じる2つの重要な課題を浮き彫りにする。
これらの問題に対処するために,2つの意味的偏差によって引き起こされるSAM2に対する最初のクロスプロンプト的普遍的敵攻撃であるUAP-SAM2を提案する。
まず,各フレームをk領域に分割し,各プロンプトをランダムにアサインし,最適化時のプロンプト依存性を低減するターゲット走査戦略を設計する。
有効性のために、我々は、現在のフレーム内のセマンティクスを歪曲し、連続するフレーム間のセマンティクスの一貫性を乱すことにより、UAPを最適化する2つのセマンティクス偏差フレームワークを設計する。
2つのセグメンテーションタスクにまたがる6つのデータセットに対する大規模な実験により,提案手法の有効性が示された。
比較の結果、UAP-SAM2は最先端(SOTA)攻撃を大きなマージンで著しく上回っていることがわかった。
関連論文リスト
- Robust SAM: On the Adversarial Robustness of Vision Foundation Models [10.86747502936825]
Segment Anything Model (SAM) は様々なアプリケーションで広く使われているビジョン基盤モデルである。
本稿では,SAMのロバスト性の評価と強化を目的とした,対向的ロバスト性フレームワークを提案する。
512個のパラメータにのみ適応することにより、結合平均交差の少なくとも15%の改善が達成される。
論文 参考訳(メタデータ) (2025-04-11T18:17:47Z) - RFMedSAM 2: Automatic Prompt Refinement for Enhanced Volumetric Medical Image Segmentation with SAM 2 [15.50695315680438]
Segment Anything Model 2 (SAM2)は、SAMを画像ドメインとビデオドメインの両方に拡張するプロンプト駆動基盤モデルである。
しかしSAMと同様、SAM 2はバイナリマスクの出力、セマンティックラベルの推論ができないこと、ターゲットのオブジェクト領域の正確なプロンプトへの依存によって制限されている。
我々は、カスタムの微調整アダプタを用いてSAM 2の上限値について検討し、BTCVデータセット上で92.30%のDice similarity Coefficient(DSC)を達成する。
論文 参考訳(メタデータ) (2025-02-04T22:03:23Z) - DarkSAM: Fooling Segment Anything Model to Segment Nothing [25.67725506581337]
Segment Anything Model (SAM) は、最近、データやタスクの見当たらない一般化で注目を集めている。
セマンティックデカップリングに基づく空間攻撃とテクスチャ歪みに基づく周波数攻撃を含む,SAMに対する最初のプロンプトフリーユニバーサルアタックフレームワークであるDarkSAMを提案する。
SAMの4つのデータセットとその2つの変種モデルに対する実験結果は、DarkSAMの強力な攻撃能力と転送可能性を示している。
論文 参考訳(メタデータ) (2024-09-26T14:20:14Z) - SAM 2 in Robotic Surgery: An Empirical Evaluation for Robustness and Generalization in Surgical Video Segmentation [13.609341065893739]
本研究では,ロボット支援手術におけるSAM2のゼロショットセグメンテーション性能について,プロンプトに基づく検討を行った。
1点とバウンディングボックスの2種類のプロンプトを使用し、ビデオシーケンスでは1点プロンプトを初期フレームに適用する。
ポイントプロンプトによる結果はSAMの能力よりも大幅に向上し、既存の未進展SOTAメソッドに近づいたり超えたりしている。
論文 参考訳(メタデータ) (2024-08-08T17:08:57Z) - SAM-CP: Marrying SAM with Composable Prompts for Versatile Segmentation [88.80792308991867]
Segment Anything Model (SAM)は、イメージピクセルをパッチにグループ化する機能を示しているが、セグメンテーションにそれを適用することは依然として大きな課題に直面している。
本稿では,SAM-CPを提案する。SAM-CPはSAM以外の2種類の構成可能なプロンプトを確立し,多目的セグメンテーションのために構成する単純な手法である。
実験により、SAM-CPはオープンドメインとクローズドドメインの両方においてセマンティック、例、およびパノプティックセグメンテーションを達成することが示された。
論文 参考訳(メタデータ) (2024-07-23T17:47:25Z) - Stable Segment Anything Model [79.9005670886038]
SAM(Segment Anything Model)は、高品質なプロンプトが与えられた場合、顕著に迅速なセグメンテーションを実現する。
本稿では,SAMのセグメンテーション安定性について,多様なプロンプト特性のスペクトルにわたって包括的解析を行った。
1)SAMのセグメンテーション安定性を広範囲に改善し,2)SAMの強力なセグメンテーション効率と一般化を維持した。
論文 参考訳(メタデータ) (2023-11-27T12:51:42Z) - On the Robustness of Segment Anything [46.669794757467166]
我々は, SAMの試験時間ロバスト性について, 敵のシナリオと共通の腐敗下で検討することを目的としている。
SAMは、ぼやけた汚職を除いて、様々な汚職に対して顕著な堅牢性を示す。
論文 参考訳(メタデータ) (2023-05-25T16:28:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。