論文の概要: LGV: Boosting Adversarial Example Transferability from Large Geometric
Vicinity
- arxiv url: http://arxiv.org/abs/2207.13129v1
- Date: Tue, 26 Jul 2022 18:15:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-28 12:51:04.938267
- Title: LGV: Boosting Adversarial Example Transferability from Large Geometric
Vicinity
- Title(参考訳): LGV:大きな幾何学的ビシニティからの逆転率向上
- Authors: Martin Gubri, Maxime Cordy, Mike Papadakis, Yves Le Traon and Koushik
Sen
- Abstract要約: 大規模ジオメトリック・ビシニティ(LGV)は,ブラックボックス攻撃の伝達性を高める新しい手法である。
LGVは、転送可能性に関連する2つの幾何学的性質を利用する。
- 参考スコア(独自算出の注目度): 18.69033059038773
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose transferability from Large Geometric Vicinity (LGV), a new
technique to increase the transferability of black-box adversarial attacks. LGV
starts from a pretrained surrogate model and collects multiple weight sets from
a few additional training epochs with a constant and high learning rate. LGV
exploits two geometric properties that we relate to transferability. First,
models that belong to a wider weight optimum are better surrogates. Second, we
identify a subspace able to generate an effective surrogate ensemble among this
wider optimum. Through extensive experiments, we show that LGV alone
outperforms all (combinations of) four established test-time transformations by
1.8 to 59.9 percentage points. Our findings shed new light on the importance of
the geometry of the weight space to explain the transferability of adversarial
examples.
- Abstract(参考訳): 我々は,ブラックボックス攻撃の転送可能性を高める新しい手法であるLarge Geometric Vicinity (LGV) の転送可能性を提案する。
LGVは、事前訓練されたサロゲートモデルから始まり、一定かつ高い学習率で追加のトレーニングエポックから複数の重み集合を収集する。
LGVは、転送可能性に関連する2つの幾何学的性質を利用する。
第一に、より広い重量の最適化に属するモデルはより良いサロゲートである。
第二に、このより広い最適化の中で効果的な代理アンサンブルを生成することができる部分空間を同定する。
広範な実験を通じて、lgv は 4 つの確立されたテスト時間変換を 1.8 から 59.9 パーセンテージで上回ることを示した。
その結果, 対向例の移動可能性を説明するために, 重み空間の幾何学的重要性に新たな光を当てた。
関連論文リスト
- GE-AdvGAN: Improving the transferability of adversarial samples by
gradient editing-based adversarial generative model [69.71629949747884]
GAN(Generative Adversarial Networks)のような逆生成モデルは、様々な種類のデータを生成するために広く応用されている。
本研究では, GE-AdvGAN という新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-01-11T16:43:16Z) - LRS: Enhancing Adversarial Transferability through Lipschitz Regularized
Surrogate [8.248964912483912]
敵の例の転送性は、転送ベースのブラックボックス敵攻撃において重要である。
転送ベースブラックボックス攻撃に対するLipschitz Regularized Surrogate (LRS)を提案する。
我々は、最先端のディープニューラルネットワークとディフェンスモデルを攻撃することで、提案したLSSアプローチを評価する。
論文 参考訳(メタデータ) (2023-12-20T15:37:50Z) - The Ultimate Combo: Boosting Adversarial Example Transferability by
Composing Data Augmentations [8.660943919572576]
代理機械学習(ML)モデルからターゲットモデルへの逆数例の転送は、ブラックボックスの逆数評価において一般的に用いられる。
我々はデータ拡張が転送可能性にどのように影響するかを体系的に研究した。
転送可能性を促進するのに役立つ拡張の組み合わせを特定した。
論文 参考訳(メタデータ) (2023-12-18T16:02:43Z) - Transformer as Linear Expansion of Learngene [38.16612771203953]
リニア・エクスパンジョン・オブ・ラーニングジェネレーション(TLEG)は多様な深さのトランスフォーマーを柔軟に生成・初期化する新しい手法である。
ImageNet-1Kの実験では、TLEGはスクラッチからトレーニングされた多くの個別モデルと対照的に、同等またはより良いパフォーマンスを実現している。
論文 参考訳(メタデータ) (2023-12-09T17:01:18Z) - Set-level Guidance Attack: Boosting Adversarial Transferability of
Vision-Language Pre-training Models [52.530286579915284]
本稿では,視覚言語事前学習モデルの対角移動可能性について検討する。
伝達性劣化は、部分的にはクロスモーダル相互作用のアンダーユース化によって引き起こされる。
本稿では,高度に伝達可能なSGA(Set-level Guidance Attack)を提案する。
論文 参考訳(メタデータ) (2023-07-26T09:19:21Z) - Why Does Little Robustness Help? Understanding and Improving Adversarial
Transferability from Surrogate Training [24.376314203167016]
DNNの逆例(AE)は転送可能であることが示されている。
本稿では,敵対的伝達可能性の理解に向けてさらなる一歩を踏み出す。
論文 参考訳(メタデータ) (2023-07-15T19:20:49Z) - Getting ViT in Shape: Scaling Laws for Compute-Optimal Model Design [84.34416126115732]
スケーリング法則は、最近、与えられた計算時間に最適なモデルサイズ(パラメータの数)を導出するために用いられる。
我々は、幅や深さなどの計算最適モデル形状を推測する手法を進化させ、改良し、視覚変換器でこれを実装した。
我々の形状最適化型視覚変換器SoViTは、同等の計算量で事前訓練されているにもかかわらず、サイズが2倍以上のモデルと競合する結果を得る。
論文 参考訳(メタデータ) (2023-05-22T13:39:28Z) - Making Substitute Models More Bayesian Can Enhance Transferability of
Adversarial Examples [89.85593878754571]
ディープニューラルネットワークにおける敵の例の転送可能性は多くのブラックボックス攻撃の欠如である。
我々は、望ましい転送可能性を達成するためにベイズモデルを攻撃することを提唱する。
我々の手法は近年の最先端を大きなマージンで上回る。
論文 参考訳(メタデータ) (2023-02-10T07:08:13Z) - Orthogonal SVD Covariance Conditioning and Latent Disentanglement [65.67315418971688]
SVDメタ層をニューラルネットワークに挿入すると、共分散が不調和になる。
我々は最寄り直交勾配(NOG)と最適学習率(OLR)を提案する。
視覚認識実験は,共分散条件と一般化を同時に改善できることを実証した。
論文 参考訳(メタデータ) (2022-12-11T20:31:31Z) - Improving Covariance Conditioning of the SVD Meta-layer by Orthogonality [65.67315418971688]
最寄り直交勾配(NOG)と最適学習率(OLR)を提案する。
視覚認識実験は,共分散条件と一般化を同時に改善できることを実証した。
論文 参考訳(メタデータ) (2022-07-05T15:39:29Z) - Efficient and Transferable Adversarial Examples from Bayesian Neural
Networks [18.69033059038773]
本稿では,ニューラルネットワーク重みの後方分布から近似的にサンプリングすることで,サロゲートを効率的に構築する手法を提案する。
ImageNetでは、トレーニング計算を11.6から2.4に削減しながら、成功率の94%に達することができる。
我々の研究は、サロゲートの訓練方法が見過ごされていることを示しているが、これは転送ベースの攻撃の重要な要素である。
論文 参考訳(メタデータ) (2020-11-10T12:46:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。