論文の概要: SegTrans: Transferable Adversarial Examples for Segmentation Models
- arxiv url: http://arxiv.org/abs/2510.08922v1
- Date: Fri, 10 Oct 2025 02:11:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 00:38:48.007692
- Title: SegTrans: Transferable Adversarial Examples for Segmentation Models
- Title(参考訳): SegTrans: セグメンテーションモデルの変換可能な逆例
- Authors: Yufei Song, Ziqi Zhou, Qi Lu, Hangtao Zhang, Yifan Hu, Lulu Xue, Shengshan Hu, Minghui Li, Leo Yu Zhang,
- Abstract要約: 既存の敵攻撃手法は、異なるセグメンテーションモデル間での転送性が低いことを示す。
入力サンプルを複数のローカル領域に分割する新しい転送攻撃フレームワークであるSegTransを提案する。
SegTransは、摂動を最適化するためにグローバルなセマンティック情報を使用するのではなく、元の入力からのローカルなセマンティック情報のみを保持する。
- 参考スコア(独自算出の注目度): 47.89859018981832
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Segmentation models exhibit significant vulnerability to adversarial examples in white-box settings, but existing adversarial attack methods often show poor transferability across different segmentation models. While some researchers have explored transfer-based adversarial attack (i.e., transfer attack) methods for segmentation models, the complex contextual dependencies within these models and the feature distribution gaps between surrogate and target models result in unsatisfactory transfer success rates. To address these issues, we propose SegTrans, a novel transfer attack framework that divides the input sample into multiple local regions and remaps their semantic information to generate diverse enhanced samples. These enhanced samples replace the original ones for perturbation optimization, thereby improving the transferability of adversarial examples across different segmentation models. Unlike existing methods, SegTrans only retains local semantic information from the original input, rather than using global semantic information to optimize perturbations. Extensive experiments on two benchmark datasets, PASCAL VOC and Cityscapes, four different segmentation models, and three backbone networks show that SegTrans significantly improves adversarial transfer success rates without introducing additional computational overhead. Compared to the current state-of-the-art methods, SegTrans achieves an average increase of 8.55% in transfer attack success rate and improves computational efficiency by more than 100%.
- Abstract(参考訳): セグメンテーションモデルは、ホワイトボックス設定における敵の例に重大な脆弱性を示すが、既存の攻撃手法は、異なるセグメンテーションモデル間での転送性が低いことを示すことが多い。
一部の研究者は、セグメンテーションモデルに対するトランスファーベースの敵攻撃(すなわちトランスファーアタック)手法、これらのモデル内の複雑なコンテキスト依存性、サロゲートモデルとターゲットモデルの間の特徴分布ギャップについて検討しているが、満足できないトランスファーの成功率をもたらす。
これらの問題に対処するために,複数のローカル領域に分割し,その意味情報を再マップして多様な拡張されたサンプルを生成する新しい転送攻撃フレームワークであるSegTransを提案する。
これらの強化されたサンプルは、摂動最適化のために元のサンプルを置き換えることで、異なるセグメンテーションモデル間での逆例の転送可能性を向上させる。
既存の方法とは異なり、SegTransは摂動を最適化するためにグローバルなセマンティック情報を使用するのではなく、元の入力からのローカルなセマンティック情報のみを保持する。
2つのベンチマークデータセット、PASCAL VOCとCityscapes、異なるセグメンテーションモデル、および3つのバックボーンネットワークに対する大規模な実験により、SegTransは計算オーバーヘッドを追加することなく、対向転送の成功率を大幅に改善することが示された。
現在の最先端手法と比較して、SegTransは平均8.55%の転送攻撃成功率向上を実現し、計算効率を100%以上向上させる。
関連論文リスト
- X-Transfer Attacks: Towards Super Transferable Adversarial Attacks on CLIP [32.85582585781569]
我々は,CLIPの普遍的敵対的脆弱性を明らかにする新しい攻撃方法である textbfX-Transfer を紹介する。
X-Transferは、様々なサンプル、タスク、ドメインにまたがる様々なCLIPエンコーダと下流のVLMを認識できるUniversal Adversarial Perturbationを生成する。
論文 参考訳(メタデータ) (2025-05-08T11:59:13Z) - Boosting the Local Invariance for Better Adversarial Transferability [4.75067406339309]
トランスファーベースの攻撃は、現実世界のアプリケーションに重大な脅威をもたらす。
LI-Boost (Local Invariance Boosting approach) と呼ばれる一般対向転送可能性向上手法を提案する。
標準のImageNetデータセットの実験では、LI-Boostがさまざまなタイプの転送ベースの攻撃を著しく強化できることが示された。
論文 参考訳(メタデータ) (2025-03-08T09:44:45Z) - GE-AdvGAN: Improving the transferability of adversarial samples by
gradient editing-based adversarial generative model [69.71629949747884]
GAN(Generative Adversarial Networks)のような逆生成モデルは、様々な種類のデータを生成するために広く応用されている。
本研究では, GE-AdvGAN という新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-01-11T16:43:16Z) - TranSegPGD: Improving Transferability of Adversarial Examples on
Semantic Segmentation [62.954089681629206]
そこで本研究では, セグメンテーションにおける2段階の対角攻撃戦略を提案し, セグメンテーションにおける対角攻撃の伝達性を向上させる。
提案手法は,最先端の性能を達成できる。
論文 参考訳(メタデータ) (2023-12-03T00:48:33Z) - Transferable Attack for Semantic Segmentation [59.17710830038692]
敵が攻撃し、ソースモデルから生成された敵の例がターゲットモデルを攻撃するのに失敗するのを観察します。
本研究では, セマンティックセグメンテーションのためのアンサンブルアタックを提案する。
論文 参考訳(メタデータ) (2023-07-31T11:05:55Z) - Making Substitute Models More Bayesian Can Enhance Transferability of
Adversarial Examples [89.85593878754571]
ディープニューラルネットワークにおける敵の例の転送可能性は多くのブラックボックス攻撃の欠如である。
我々は、望ましい転送可能性を達成するためにベイズモデルを攻撃することを提唱する。
我々の手法は近年の最先端を大きなマージンで上回る。
論文 参考訳(メタデータ) (2023-02-10T07:08:13Z) - Boosting Transferability of Targeted Adversarial Examples via
Hierarchical Generative Networks [56.96241557830253]
転送ベースの敵攻撃はブラックボックス設定におけるモデルロバスト性を効果的に評価することができる。
本稿では,異なるクラスを対象にした対角的例を生成する条件生成攻撃モデルを提案する。
提案手法は,既存の手法と比較して,標的となるブラックボックス攻撃の成功率を大幅に向上させる。
論文 参考訳(メタデータ) (2021-07-05T06:17:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。