論文の概要: Black-box Targeted Adversarial Attack on Segment Anything (SAM)
- arxiv url: http://arxiv.org/abs/2310.10010v2
- Date: Wed, 28 Feb 2024 06:10:39 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-29 18:30:29.526886
- Title: Black-box Targeted Adversarial Attack on Segment Anything (SAM)
- Title(参考訳): Black-box Targeted Adversarial Attack on Segment Anything (SAM)
- Authors: Sheng Zheng, Chaoning Zhang, Xinhong Hao
- Abstract要約: 本研究は,Segment Anything Model (SAM) におけるターゲット対敵攻撃 (TAA) の実現を目的とする。
具体的には、特定のプロンプトの下では、敵の例の予測マスクを所定のターゲット画像のマスクに類似させることが目的である。
本稿では, ランダムな自然画像に対する逆画像の特徴優位性を高めることで, クロスモデル転送可能性を高める新たな正規化損失を提案する。
- 参考スコア(独自算出の注目度): 24.927514923402775
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep recognition models are widely vulnerable to adversarial examples, which
change the model output by adding quasi-imperceptible perturbation to the image
input. Recently, Segment Anything Model (SAM) has emerged to become a popular
foundation model in computer vision due to its impressive generalization to
unseen data and tasks. Realizing flexible attacks on SAM is beneficial for
understanding the robustness of SAM in the adversarial context. To this end,
this work aims to achieve a targeted adversarial attack (TAA) on SAM.
Specifically, under a certain prompt, the goal is to make the predicted mask of
an adversarial example resemble that of a given target image. The task of TAA
on SAM has been realized in a recent arXiv work in the white-box setup by
assuming access to prompt and model, which is thus less practical. To address
the issue of prompt dependence, we propose a simple yet effective approach by
only attacking the image encoder. Moreover, we propose a novel regularization
loss to enhance the cross-model transferability by increasing the feature
dominance of adversarial images over random natural images. Extensive
experiments verify the effectiveness of our proposed simple techniques to
conduct a successful black-box TAA on SAM.
- Abstract(参考訳): 深層認識モデルは、画像入力に準可視摂動を加えることによってモデル出力を変化させる敵の例に広く脆弱である。
近年,Segment Anything Model (SAM) がコンピュータビジョンの基盤モデルとして注目されている。
SAMに対する柔軟な攻撃を実現することは、SAMの強靭性を理解する上で有益である。
本研究の目的は,SAM上での敵攻撃(TAA)を実現することである。
具体的には、特定のプロンプトの下では、敵の例の予測マスクを所定のターゲット画像のマスクに類似させることが目的である。
SAM上でのTAAのタスクは、プロンプトとモデルへのアクセスを仮定することで、最近のarXivのホワイトボックス設定で実現されている。
プロンプト依存の問題に対処するために,画像エンコーダを攻撃するだけで,簡単かつ効果的なアプローチを提案する。
さらに, ランダム自然画像に対する逆画像の特徴的優位を増大させることにより, クロスモデル転送性を高める新しい正規化損失を提案する。
SAM上でのブラックボックスTAAを成功させるために,提案手法の有効性を検証した。
関連論文リスト
- ASAM: Boosting Segment Anything Model with Adversarial Tuning [9.566046692165884]
本稿では, 対角的チューニングにより基礎モデルの性能を増幅する新しい手法であるASAMを紹介する。
我々は,自然言語処理における実装の成功に触発された,自然対逆例の可能性を生かした。
本手法は, 対向例のフォトリアリズムを維持し, 元のマスクアノテーションとの整合性を確保する。
論文 参考訳(メタデータ) (2024-05-01T00:13:05Z) - Improving the Generalization of Segmentation Foundation Model under Distribution Shift via Weakly Supervised Adaptation [43.759808066264334]
本稿では,アンカー正規化と低ランク微調整を併用した弱教師付き自己学習アーキテクチャを提案する。
本研究では, 自然浄化・破損画像, 医用画像, カモフラージュ画像, ロボット画像など, 5種類の下流セグメンテーションタスクの有効性を検証した。
論文 参考訳(メタデータ) (2023-12-06T13:59:22Z) - Segment Anything Meets Universal Adversarial Perturbation [24.282954410856018]
画像認識不能なユニバーサル適応摂動(UAP)を用いてSAM(Segment Anything Model)を攻撃できるかどうかを検討する。
自己教師付きコントラスト学習(CL)に基づくUAP生成手法を実現する新しい摂動中心フレームワークを提案する。
CLを用いたUAP生成手法の有効性を定量的および定性的に検証した。
論文 参考訳(メタデータ) (2023-10-19T02:49:24Z) - BadSAM: Exploring Security Vulnerabilities of SAM via Backdoor Attacks [16.667225643881782]
BadSAMはイメージセグメンテーション基盤モデルに対する最初のバックドア攻撃である。
我々は,CAMOデータセットの予備実験を行い,BadSAMの有効性を実証した。
論文 参考訳(メタデータ) (2023-05-05T05:39:12Z) - Personalize Segment Anything Model with One Shot [52.54453744941516]
我々は,Segment Anything Model (SAM) のためのトレーニング不要なパーソナライズ手法を提案する。
PerSAMは、参照マスクを持つ1つのイメージしか持たないため、最初にターゲットのコンセプトを以前のロケーションでローカライズする。
PerSAMは、ターゲット誘導された注意、ターゲットセマンティックなプロンプト、そしてカスケードされたポストリファインメントという3つのテクニックを通じて、他の画像やビデオにセグメントする。
論文 参考訳(メタデータ) (2023-05-04T17:59:36Z) - Attack-SAM: Towards Attacking Segment Anything Model With Adversarial
Examples [68.5719552703438]
Segment Anything Model (SAM) は、様々なダウンストリームタスクにおける印象的なパフォーマンスのために、最近大きな注目を集めている。
深い視覚モデルは敵の例に弱いと広く認識されており、それはモデルを騙して知覚不能な摂動で間違った予測をする。
この研究は、SAMの攻撃方法に関する総合的な調査を敵対的な例で実施した最初のものである。
論文 参考訳(メタデータ) (2023-05-01T15:08:17Z) - Adversarial Pixel Restoration as a Pretext Task for Transferable
Perturbations [54.1807206010136]
トランスファー可能な敵攻撃は、事前訓練された代理モデルと既知のラベル空間から敵を最適化し、未知のブラックボックスモデルを騙す。
本稿では,効果的なサロゲートモデルをスクラッチからトレーニングするための自己教師型代替手段として,Adversarial Pixel Restorationを提案する。
我々のトレーニングアプローチは、敵の目標を通したオーバーフィッティングを減らすmin-maxの目標に基づいています。
論文 参考訳(メタデータ) (2022-07-18T17:59:58Z) - CARBEN: Composite Adversarial Robustness Benchmark [70.05004034081377]
本稿では,複合対向攻撃 (CAA) が画像に与える影響を実証する。
異なるモデルのリアルタイム推論を提供し、攻撃レベルのパラメータの設定を容易にする。
CAAに対する敵対的堅牢性を評価するためのリーダーボードも導入されている。
論文 参考訳(メタデータ) (2022-07-16T01:08:44Z) - Training Meta-Surrogate Model for Transferable Adversarial Attack [98.13178217557193]
クエリーを許可しない場合、ブラックボックスモデルに対する逆攻撃を考える。
この設定では、多くの手法が代理モデルを直接攻撃し、得られた敵の例をターゲットモデルを騙すために転送する。
メタサロゲートモデル(Meta-Surrogate Model:MSM)は,このモデルに対する攻撃が,他のモデルに容易に転送できることを示す。
論文 参考訳(メタデータ) (2021-09-05T03:27:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。