論文の概要: SAM Encoder Breach by Adversarial Simplicial Complex Triggers Downstream Model Failures
- arxiv url: http://arxiv.org/abs/2508.06127v1
- Date: Fri, 08 Aug 2025 08:47:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-11 20:39:06.14891
- Title: SAM Encoder Breach by Adversarial Simplicial Complex Triggers Downstream Model Failures
- Title(参考訳): 逆相単体トリガーによるSAMエンコーダの下流モデル故障
- Authors: Yi Qin, Rui Wang, Tao Huang, Tong Xiao, Liping Jing,
- Abstract要約: Segment Anything Model (SAM) は、ゼロショット能力で対話的なセグメンテーションを変換する。
SAM固有の脆弱性は単一ポイントのリスクを示し、多くのダウンストリームアプリケーションの障害につながる可能性がある。
本稿では,SAMのエンコーダのみを利用する新しい手法を提案する。
- 参考スコア(独自算出の注目度): 43.17595238353687
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While the Segment Anything Model (SAM) transforms interactive segmentation with zero-shot abilities, its inherent vulnerabilities present a single-point risk, potentially leading to the failure of numerous downstream applications. Proactively evaluating these transferable vulnerabilities is thus imperative. Prior adversarial attacks on SAM often present limited transferability due to insufficient exploration of common weakness across domains. To address this, we propose Vertex-Refining Simplicial Complex Attack (VeSCA), a novel method that leverages only the encoder of SAM for generating transferable adversarial examples. Specifically, it achieves this by explicitly characterizing the shared vulnerable regions between SAM and downstream models through a parametric simplicial complex. Our goal is to identify such complexes within adversarially potent regions by iterative vertex-wise refinement. A lightweight domain re-adaptation strategy is introduced to bridge domain divergence using minimal reference data during the initialization of simplicial complex. Ultimately, VeSCA generates consistently transferable adversarial examples through random simplicial complex sampling. Extensive experiments demonstrate that VeSCA achieves performance improved by 12.7% compared to state-of-the-art methods across three downstream model categories across five domain-specific datasets. Our findings further highlight the downstream model risks posed by SAM's vulnerabilities and emphasize the urgency of developing more robust foundation models.
- Abstract(参考訳): Segment Anything Model (SAM)は、インタラクティブセグメンテーションをゼロショット能力で変換するが、その固有の脆弱性は単一ポイントリスクを示し、多くのダウンストリームアプリケーションの失敗につながる可能性がある。
したがって、これらの転送可能な脆弱性を積極的に評価することは必須である。
SAMに対する以前の敵対攻撃は、ドメイン間の共通弱点の探索が不十分なため、転送可能性に制限があることが多い。
そこで本研究では,SAMのエンコーダのみを応用して,転送可能な逆問題を生成するVertex-Refining Simplicial Complex Attack (VeSCA)を提案する。
具体的には、SAMモデルと下流モデルの間の共有された脆弱な領域をパラメトリックsimplicial complexを通して明示的に特徴付けることでこれを達成している。
我々のゴールは、反復的な頂点ワイドリファインメントにより、逆の強い領域内でそのような複合体を同定することである。
単純コンプレックスの初期化時に最小限の参照データを用いて、ブリッジ領域の分岐に軽量なドメイン再適応戦略を導入する。
究極的には、VeSCAはランダム単純複素サンプリングによって一貫した変換可能な逆例を生成する。
大規模な実験により、VeSCAは5つのドメイン固有のデータセットにわたる3つのダウンストリームモデルカテゴリにわたる最先端の手法と比較して12.7%向上した。
そこで本研究では,SAMの脆弱性による下流モデルリスクをさらに強調するとともに,より堅牢な基盤モデルを開発する上での緊急性を強調した。
関連論文リスト
- ST-SAM: SAM-Driven Self-Training Framework for Semi-Supervised Camouflaged Object Detection [14.06736878203419]
半教師付きCamouflaged Object Detection (SSCOD) は、高価なピクセルレベルのアノテーションへの依存を減らすことを目的としている。
既存のSSCOD法では, 厳密な予測バイアスと誤差伝播に悩まされている。
アノテーション効率が高いが簡潔なフレームワークST-SAMを提案する。
論文 参考訳(メタデータ) (2025-07-31T07:41:30Z) - Exploiting Edge Features for Transferable Adversarial Attacks in Distributed Machine Learning [54.26807397329468]
この研究は、分散ディープラーニングシステムにおいて、これまで見過ごされていた脆弱性を探究する。
中間的特徴をインターセプトする敵は、依然として深刻な脅威となる可能性がある。
本稿では,分散環境に特化して設計されたエクスプロイト戦略を提案する。
論文 参考訳(メタデータ) (2025-07-09T20:09:00Z) - A Simple DropConnect Approach to Transfer-based Targeted Attack [43.039945949426546]
本研究では,単一サロゲートモデルを用いて生成した敵対サンプルを直接対象モデルに適用するトランスファーベースブラックボックス攻撃の問題点について検討する。
我々はDropConnectによる摂動共適応を緩和し、転送可能性を高めることを提案する。
CNNベースのモデルからTransformerベースのモデルに移行するという難しいシナリオでは、MCDは最先端のベースラインに比べて平均ASRが13%高い。
論文 参考訳(メタデータ) (2025-04-24T12:29:23Z) - Transferable Adversarial Attacks on SAM and Its Downstream Models [87.23908485521439]
本稿では,セグメント・アプライス・モデル(SAM)から微調整した様々な下流モデルに対する敵攻撃の可能性について検討する。
未知のデータセットを微調整したモデルに対する敵攻撃の有効性を高めるために,ユニバーサルメタ初期化(UMI)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-26T15:04:04Z) - Model Stealing Attack against Graph Classification with Authenticity, Uncertainty and Diversity [80.16488817177182]
GNNは、クエリ許可を通じてターゲットモデルを複製するための悪行であるモデル盗難攻撃に対して脆弱である。
異なるシナリオに対応するために,3つのモデルステルス攻撃を導入する。
論文 参考訳(メタデータ) (2023-12-18T05:42:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。