論文の概要: LGV: Boosting Adversarial Example Transferability from Large Geometric
Vicinity
- arxiv url: http://arxiv.org/abs/2207.13129v1
- Date: Tue, 26 Jul 2022 18:15:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-28 12:51:04.938267
- Title: LGV: Boosting Adversarial Example Transferability from Large Geometric
Vicinity
- Title(参考訳): LGV:大きな幾何学的ビシニティからの逆転率向上
- Authors: Martin Gubri, Maxime Cordy, Mike Papadakis, Yves Le Traon and Koushik
Sen
- Abstract要約: 大規模ジオメトリック・ビシニティ(LGV)は,ブラックボックス攻撃の伝達性を高める新しい手法である。
LGVは、転送可能性に関連する2つの幾何学的性質を利用する。
- 参考スコア(独自算出の注目度): 18.69033059038773
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose transferability from Large Geometric Vicinity (LGV), a new
technique to increase the transferability of black-box adversarial attacks. LGV
starts from a pretrained surrogate model and collects multiple weight sets from
a few additional training epochs with a constant and high learning rate. LGV
exploits two geometric properties that we relate to transferability. First,
models that belong to a wider weight optimum are better surrogates. Second, we
identify a subspace able to generate an effective surrogate ensemble among this
wider optimum. Through extensive experiments, we show that LGV alone
outperforms all (combinations of) four established test-time transformations by
1.8 to 59.9 percentage points. Our findings shed new light on the importance of
the geometry of the weight space to explain the transferability of adversarial
examples.
- Abstract(参考訳): 我々は,ブラックボックス攻撃の転送可能性を高める新しい手法であるLarge Geometric Vicinity (LGV) の転送可能性を提案する。
LGVは、事前訓練されたサロゲートモデルから始まり、一定かつ高い学習率で追加のトレーニングエポックから複数の重み集合を収集する。
LGVは、転送可能性に関連する2つの幾何学的性質を利用する。
第一に、より広い重量の最適化に属するモデルはより良いサロゲートである。
第二に、このより広い最適化の中で効果的な代理アンサンブルを生成することができる部分空間を同定する。
広範な実験を通じて、lgv は 4 つの確立されたテスト時間変換を 1.8 から 59.9 パーセンテージで上回ることを示した。
その結果, 対向例の移動可能性を説明するために, 重み空間の幾何学的重要性に新たな光を当てた。
関連論文リスト
- Semantic-Aligned Adversarial Evolution Triangle for High-Transferability Vision-Language Attack [51.16384207202798]
視覚言語事前学習モデルは多モーダル逆例(AE)に対して脆弱である
従来のアプローチでは、画像とテキストのペアを拡大して、敵対的なサンプル生成プロセス内での多様性を高めている。
本稿では, 敵の多様性を高めるために, クリーン, ヒストリ, および現在の敵の例からなる敵の進化三角形からのサンプリングを提案する。
論文 参考訳(メタデータ) (2024-11-04T23:07:51Z) - Unveil Benign Overfitting for Transformer in Vision: Training Dynamics, Convergence, and Generalization [88.5582111768376]
本研究では, ソフトマックスを用いた自己保持層と, 勾配勾配下での完全連結層からなるトランスフォーマーの最適化について検討した。
この結果から,データモデルにおける信号対雑音比に基づいて,小さなテストエラー位相と大規模なテストエラー状態とを区別できるシャープ条件を確立した。
論文 参考訳(メタデータ) (2024-09-28T13:24:11Z) - Learning to Transform Dynamically for Better Adversarial Transferability [32.267484632957576]
人間に知覚できない摂動を加えることで構築された敵対的な例は、ニューラルネットワークを欺く可能性がある。
我々はL2T(Learning to Transform)という新しいアプローチを導入する。
L2Tは、候補プールからの操作の最適な組み合わせを選択することにより、変換された画像の多様性を高める。
論文 参考訳(メタデータ) (2024-05-23T00:46:53Z) - LRS: Enhancing Adversarial Transferability through Lipschitz Regularized
Surrogate [8.248964912483912]
敵の例の転送性は、転送ベースのブラックボックス敵攻撃において重要である。
転送ベースブラックボックス攻撃に対するLipschitz Regularized Surrogate (LRS)を提案する。
我々は、最先端のディープニューラルネットワークとディフェンスモデルを攻撃することで、提案したLSSアプローチを評価する。
論文 参考訳(メタデータ) (2023-12-20T15:37:50Z) - The Ultimate Combo: Boosting Adversarial Example Transferability by Composing Data Augmentations [7.928158786834293]
ブラックボックス回避攻撃には、データ拡張(例えば、ランダムリサイズ)が組み込まれている。
代理機械学習(ML)モデルからターゲットへの敵の例の一般化を支援するため、特定の転送可能性ベースの攻撃にはデータ拡張が組み込まれている。
我々はデータ拡張が転送可能性にどのように影響するかを体系的に研究した。
論文 参考訳(メタデータ) (2023-12-18T16:02:43Z) - Transformer as Linear Expansion of Learngene [38.16612771203953]
リニア・エクスパンジョン・オブ・ラーニングジェネレーション(TLEG)は多様な深さのトランスフォーマーを柔軟に生成・初期化する新しい手法である。
ImageNet-1Kの実験では、TLEGはスクラッチからトレーニングされた多くの個別モデルと対照的に、同等またはより良いパフォーマンスを実現している。
論文 参考訳(メタデータ) (2023-12-09T17:01:18Z) - Set-level Guidance Attack: Boosting Adversarial Transferability of
Vision-Language Pre-training Models [52.530286579915284]
本稿では,視覚言語事前学習モデルの対角移動可能性について検討する。
伝達性劣化は、部分的にはクロスモーダル相互作用のアンダーユース化によって引き起こされる。
本稿では,高度に伝達可能なSGA(Set-level Guidance Attack)を提案する。
論文 参考訳(メタデータ) (2023-07-26T09:19:21Z) - Why Does Little Robustness Help? Understanding and Improving Adversarial
Transferability from Surrogate Training [24.376314203167016]
DNNの逆例(AE)は転送可能であることが示されている。
本稿では,敵対的伝達可能性の理解に向けてさらなる一歩を踏み出す。
論文 参考訳(メタデータ) (2023-07-15T19:20:49Z) - Making Substitute Models More Bayesian Can Enhance Transferability of
Adversarial Examples [89.85593878754571]
ディープニューラルネットワークにおける敵の例の転送可能性は多くのブラックボックス攻撃の欠如である。
我々は、望ましい転送可能性を達成するためにベイズモデルを攻撃することを提唱する。
我々の手法は近年の最先端を大きなマージンで上回る。
論文 参考訳(メタデータ) (2023-02-10T07:08:13Z) - Orthogonal SVD Covariance Conditioning and Latent Disentanglement [65.67315418971688]
SVDメタ層をニューラルネットワークに挿入すると、共分散が不調和になる。
我々は最寄り直交勾配(NOG)と最適学習率(OLR)を提案する。
視覚認識実験は,共分散条件と一般化を同時に改善できることを実証した。
論文 参考訳(メタデータ) (2022-12-11T20:31:31Z) - Improving Covariance Conditioning of the SVD Meta-layer by Orthogonality [65.67315418971688]
最寄り直交勾配(NOG)と最適学習率(OLR)を提案する。
視覚認識実験は,共分散条件と一般化を同時に改善できることを実証した。
論文 参考訳(メタデータ) (2022-07-05T15:39:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。