論文の概要: Attack-SAM: Towards Evaluating Adversarial Robustness of Segment
Anything Model
- arxiv url: http://arxiv.org/abs/2305.00866v1
- Date: Mon, 1 May 2023 15:08:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-02 13:04:36.265511
- Title: Attack-SAM: Towards Evaluating Adversarial Robustness of Segment
Anything Model
- Title(参考訳): アタック-SAM:セグメンテーションモデルの逆ロバスト性評価に向けて
- Authors: Chenshuang Zhang, Chaoning Zhang, Taegoo Kang, Donghun Kim, Sung-Ho
Bae, In So Kweon
- Abstract要約: 本稿では,Segment Anything Model (SAM) を逆例で攻撃する方法を検討する。
SAMはブラックボックス設定においてある程度堅牢性を維持しながら、ホワイトボックス攻撃に対して脆弱であることがわかった。
- 参考スコア(独自算出の注目度): 68.5719552703438
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Segment Anything Model (SAM) has attracted significant attention recently,
due to its impressive performance on various downstream tasks in a zero-short
manner. Computer vision (CV) area might follow the natural language processing
(NLP) area to embark on a path from task-specific vision models toward
foundation models. However, previous task-specific models are widely recognized
as vulnerable to adversarial examples, which fool the model to make wrong
predictions with imperceptible perturbation. Such vulnerability to adversarial
attacks causes serious concerns when applying deep models to security-sensitive
applications. Therefore, it is critical to know whether the vision foundation
model SAM can also be easily fooled by adversarial attacks. To the best of our
knowledge, our work is the first of its kind to conduct a comprehensive
investigation on how to attack SAM with adversarial examples. Specifically, we
find that SAM is vulnerable to white-box attacks while maintaining robustness
to some extent in the black-box setting. This is an ongoing project and more
results and findings will be updated soon through
https://github.com/chenshuang-zhang/attack-sam.
- Abstract(参考訳): Segment Anything Model (SAM) は、様々なダウンストリームタスクにおけるゼロショートなパフォーマンスのため、近年大きな注目を集めている。
コンピュータビジョン(CV)領域は自然言語処理(NLP)領域に従えば、タスク固有のビジョンモデルから基礎モデルへの道を歩むことができる。
しかし、従来のタスク固有のモデルは敵の例に弱いと広く認識されており、それはモデルを騙して知覚不能な摂動で間違った予測をする。
このような攻撃に対する脆弱性は、セキュリティに敏感なアプリケーションにディープモデルを適用する際に深刻な懸念を引き起こす。
したがって,視基盤モデルSAMが敵攻撃によって容易に騙せるかどうかを知ることが重要である。
我々の知る限りでは、私たちの研究はSAMを敵の例で攻撃する方法を包括的に調査する最初のものである。
特に、samはブラックボックス設定である程度堅牢性を維持しつつ、ホワイトボックス攻撃に弱いことが分かりました。
これは進行中のプロジェクトであり、さらなる結果と調査結果はhttps://github.com/chenshuang-zhang/ attack-sam.comで更新される。
関連論文リスト
- Transferable Adversarial Attacks on SAM and Its Downstream Models [87.23908485521439]
本稿では,セグメント・アプライス・モデル(SAM)から微調整した様々な下流モデルに対する敵攻撃の可能性について検討する。
未知のデータセットを微調整したモデルに対する敵攻撃の有効性を高めるために,ユニバーサルメタ初期化(UMI)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-26T15:04:04Z) - Hiding-in-Plain-Sight (HiPS) Attack on CLIP for Targetted Object Removal from Images [3.537369004801589]
Hiding-in-Plain-Sight (HiPS) 攻撃はターゲットオブジェクトを選択的に隠蔽することでモデル予測を微調整する
本稿では,HPS-clsとHiPS-capの2種類のHiPS攻撃モデルを提案し,下流画像キャプションモデルへの転送の有効性を実証した。
論文 参考訳(メタデータ) (2024-10-16T20:11:32Z) - BadCLIP: Dual-Embedding Guided Backdoor Attack on Multimodal Contrastive
Learning [85.2564206440109]
本報告では,防衛後においてもバックドア攻撃が有効であり続けるという現実的なシナリオにおける脅威を明らかにする。
バックドア検出や細調整防御のモデル化に抵抗性のあるemphtoolnsアタックを導入する。
論文 参考訳(メタデータ) (2023-11-20T02:21:49Z) - SAM Meets UAP: Attacking Segment Anything Model With Universal Adversarial Perturbation [61.732503554088524]
画像認識不能なユニバーサル適応摂動(UAP)を用いてSAM(Segment Anything Model)を攻撃できるかどうかを検討する。
自己教師付きコントラスト学習(CL)に基づくUAP生成手法を実現する新しい摂動中心フレームワークを提案する。
CLを用いたUAP生成手法の有効性を定量的および定性的に検証した。
論文 参考訳(メタデータ) (2023-10-19T02:49:24Z) - Black-box Targeted Adversarial Attack on Segment Anything (SAM) [24.927514923402775]
本研究は,Segment Anything Model (SAM) におけるターゲット対敵攻撃 (TAA) の実現を目的とする。
具体的には、特定のプロンプトの下では、敵の例の予測マスクを所定のターゲット画像のマスクに類似させることが目的である。
本稿では, ランダムな自然画像に対する逆画像の特徴優位性を高めることで, クロスモデル転送可能性を高める新たな正規化損失を提案する。
論文 参考訳(メタデータ) (2023-10-16T02:09:03Z) - Understanding the Robustness of Randomized Feature Defense Against
Query-Based Adversarial Attacks [23.010308600769545]
ディープニューラルネットワークは、元の画像に近いサンプルを見つける敵の例に弱いが、モデルを誤分類させる可能性がある。
モデル中間層における隠れた特徴にランダムノイズを付加することにより,ブラックボックス攻撃に対する簡易かつ軽量な防御法を提案する。
本手法は,スコアベースと決定ベースの両方のブラックボックス攻撃に対するモデルのレジリエンスを効果的に向上させる。
論文 参考訳(メタデータ) (2023-10-01T03:53:23Z) - A Review of Adversarial Attacks in Computer Vision [16.619382559756087]
敵対的攻撃は人間の目では見えないが、深層学習の誤分類につながる可能性がある。
敵攻撃は、攻撃者がモデルのパラメータと勾配を知っているホワイトボックス攻撃とブラックボックス攻撃に分けられ、後者は攻撃者がモデルの入力と出力しか取得できない。
論文 参考訳(メタデータ) (2023-08-15T09:43:10Z) - On the Robustness of Segment Anything [46.669794757467166]
我々は, SAMの試験時間ロバスト性について, 敵のシナリオと共通の腐敗下で検討することを目的としている。
SAMは、ぼやけた汚職を除いて、様々な汚職に対して顕著な堅牢性を示す。
論文 参考訳(メタデータ) (2023-05-25T16:28:30Z) - Untargeted Backdoor Attack against Object Detection [69.63097724439886]
我々は,タスク特性に基づいて,無目標で毒のみのバックドア攻撃を設計する。
攻撃によって、バックドアがターゲットモデルに埋め込まれると、トリガーパターンでスタンプされたオブジェクトの検出を失う可能性があることを示す。
論文 参考訳(メタデータ) (2022-11-02T17:05:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。