論文の概要: Practical Region-level Attack against Segment Anything Models
- arxiv url: http://arxiv.org/abs/2404.08255v1
- Date: Fri, 12 Apr 2024 06:09:24 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-15 15:55:31.052686
- Title: Practical Region-level Attack against Segment Anything Models
- Title(参考訳): セグメンテーションモデルに対する実践的地域レベルアタック
- Authors: Yifan Shen, Zhengyuan Li, Gang Wang,
- Abstract要約: Segment Anything Models (SAM) は画像セグメンテーションにおいて大きな進歩を遂げた。
最近の研究は、事前に定義されたプロンプト/クリックに対する敵攻撃を調査している。
本研究では,攻撃者が正確なユーザプロンプトを知る必要のない,より実用的な地域レベルの攻撃を提案する。
- 参考スコア(独自算出の注目度): 4.620569137489879
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Segment Anything Models (SAM) have made significant advancements in image segmentation, allowing users to segment target portions of an image with a single click (i.e., user prompt). Given its broad applications, the robustness of SAM against adversarial attacks is a critical concern. While recent works have explored adversarial attacks against a pre-defined prompt/click, their threat model is not yet realistic: (1) they often assume the user-click position is known to the attacker (point-based attack), and (2) they often operate under a white-box setting with limited transferability. In this paper, we propose a more practical region-level attack where attackers do not need to know the precise user prompt. The attack remains effective as the user clicks on any point on the target object in the image, hiding the object from SAM. Also, by adapting a spectrum transformation method, we make the attack more transferable under a black-box setting. Both control experiments and testing against real-world SAM services confirm its effectiveness.
- Abstract(参考訳): Segment Anything Models (SAM) は画像のセグメンテーションを大幅に進歩させ、ユーザーは画像のターゲット部分をワンクリック(つまりユーザープロンプト)でセグメント化できる。
幅広い応用を考えると、SAMの敵攻撃に対する堅牢性は重要な懸念事項である。
最近の研究では、事前に定義されたプロンプト/クリックに対する敵攻撃を探索しているが、その脅威モデルはまだ現実的ではない。
本稿では,攻撃者が正確なユーザプロンプトを知る必要のない,より実用的な地域レベルの攻撃を提案する。
イメージ内のターゲットオブジェクトの任意のポイントをクリックし、SAMからオブジェクトを隠すことで、攻撃は依然として有効である。
また、スペクトル変換法を適用することにより、ブラックボックス設定で攻撃をより伝達しやすくする。
実世界のSAMサービスに対する制御実験とテストの両方が、その有効性を確認している。
関連論文リスト
- DarkSAM: Fooling Segment Anything Model to Segment Nothing [25.67725506581337]
Segment Anything Model (SAM) は、最近、データやタスクの見当たらない一般化で注目を集めている。
セマンティックデカップリングに基づく空間攻撃とテクスチャ歪みに基づく周波数攻撃を含む,SAMに対する最初のプロンプトフリーユニバーサルアタックフレームワークであるDarkSAMを提案する。
SAMの4つのデータセットとその2つの変種モデルに対する実験結果は、DarkSAMの強力な攻撃能力と転送可能性を示している。
論文 参考訳(メタデータ) (2024-09-26T14:20:14Z) - Black-box Targeted Adversarial Attack on Segment Anything (SAM) [24.927514923402775]
本研究は,Segment Anything Model (SAM) におけるターゲット対敵攻撃 (TAA) の実現を目的とする。
具体的には、特定のプロンプトの下では、敵の例の予測マスクを所定のターゲット画像のマスクに類似させることが目的である。
本稿では, ランダムな自然画像に対する逆画像の特徴優位性を高めることで, クロスモデル転送可能性を高める新たな正規化損失を提案する。
論文 参考訳(メタデータ) (2023-10-16T02:09:03Z) - Attack-SAM: Towards Attacking Segment Anything Model With Adversarial
Examples [68.5719552703438]
Segment Anything Model (SAM) は、様々なダウンストリームタスクにおける印象的なパフォーマンスのために、最近大きな注目を集めている。
深い視覚モデルは敵の例に弱いと広く認識されており、それはモデルを騙して知覚不能な摂動で間違った予測をする。
この研究は、SAMの攻撃方法に関する総合的な調査を敵対的な例で実施した最初のものである。
論文 参考訳(メタデータ) (2023-05-01T15:08:17Z) - Object-fabrication Targeted Attack for Object Detection [54.10697546734503]
物体検出の敵攻撃は 標的攻撃と未標的攻撃を含む。
新たなオブジェクトファブリケーションターゲット攻撃モードは、特定のターゲットラベルを持つ追加の偽オブジェクトをファブリケートする検出器を誤解させる可能性がある。
論文 参考訳(メタデータ) (2022-12-13T08:42:39Z) - Zero-Query Transfer Attacks on Context-Aware Object Detectors [95.18656036716972]
敵は、ディープニューラルネットワークが誤った分類結果を生成するような摂動画像を攻撃する。
自然の多目的シーンに対する敵対的攻撃を防御するための有望なアプローチは、文脈整合性チェックを課すことである。
本稿では,コンテキスト整合性チェックを回避可能な,コンテキスト整合性攻撃を生成するための最初のアプローチを提案する。
論文 参考訳(メタデータ) (2022-03-29T04:33:06Z) - Parallel Rectangle Flip Attack: A Query-based Black-box Attack against
Object Detection [89.08832589750003]
本稿では,攻撃領域近傍の準最適検出を回避するために,ランダム探索による並列矩形フリップ攻撃(PRFA)を提案する。
提案手法は, アンカーベースやアンカーフリーなど, 様々な人気物体検出装置を効果的かつ効率的に攻撃し, 転送可能な対向例を生成する。
論文 参考訳(メタデータ) (2022-01-22T06:00:17Z) - Local Black-box Adversarial Attacks: A Query Efficient Approach [64.98246858117476]
アドリアックは、セキュリティに敏感なシナリオにおけるディープニューラルネットワークの適用を脅かしている。
ブラックボックス攻撃における限られたクエリ内でのみクリーンな例の識別領域を摂動させる新しいフレームワークを提案する。
攻撃成功率の高いブラックボックス摂動時のクエリ効率を大幅に改善できることを示すため,広範な実験を行った。
論文 参考訳(メタデータ) (2021-01-04T15:32:16Z) - Sparse Adversarial Attack to Object Detection [0.8702432681310401]
本研究では, 対人攻撃(Sparse Adversarial Attack, SAA)を提案する。
YOLOv4とFasterRCNNの実験結果から,本手法の有効性が明らかになった。
論文 参考訳(メタデータ) (2020-12-26T07:52:28Z) - Deflecting Adversarial Attacks [94.85315681223702]
我々は、攻撃者が攻撃対象クラスに似た入力を生成することによって、敵攻撃を「防御」するこのサイクルを終わらせる新しいアプローチを提案する。
本稿ではまず,3つの検出機構を組み合わせたカプセルネットワークに基づくより強力な防御手法を提案する。
論文 参考訳(メタデータ) (2020-02-18T06:59:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。