論文の概要: Diversified Adversarial Attacks based on Conjugate Gradient Method
- arxiv url: http://arxiv.org/abs/2206.09628v1
- Date: Mon, 20 Jun 2022 08:24:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-25 13:16:12.672128
- Title: Diversified Adversarial Attacks based on Conjugate Gradient Method
- Title(参考訳): 共役勾配法に基づく多様な逆攻撃
- Authors: Keiichiro Yamamura, Haruki Sato, Nariaki Tateiwa, Nozomi Hata, Toru
Mitsutake, Issa Oe, Hiroki Ishikura, Katsuki Fujisawa
- Abstract要約: 本稿では,共役勾配法(CG)に着想を得た新しい攻撃アルゴリズムを提案する。
ACGは既存のSOTAアルゴリズムであるAuto-PGDよりも少ないイテレーションで、より逆の例を見つけることができる。
この指標を用いた多様性の分析から,提案手法の探索がより多種多様になればなるほど,攻撃成功率が著しく向上することを示した。
- 参考スコア(独自算出の注目度): 1.759008116536278
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning models are vulnerable to adversarial examples, and adversarial
attacks used to generate such examples have attracted considerable research
interest. Although existing methods based on the steepest descent have achieved
high attack success rates, ill-conditioned problems occasionally reduce their
performance. To address this limitation, we utilize the conjugate gradient (CG)
method, which is effective for this type of problem, and propose a novel attack
algorithm inspired by the CG method, named the Auto Conjugate Gradient (ACG)
attack. The results of large-scale evaluation experiments conducted on the
latest robust models show that, for most models, ACG was able to find more
adversarial examples with fewer iterations than the existing SOTA algorithm
Auto-PGD (APGD). We investigated the difference in search performance between
ACG and APGD in terms of diversification and intensification, and define a
measure called Diversity Index (DI) to quantify the degree of diversity. From
the analysis of the diversity using this index, we show that the more diverse
search of the proposed method remarkably improves its attack success rate.
- Abstract(参考訳): ディープラーニングモデルは、敵の例に対して脆弱であり、そのような例を生成するために使用される敵攻撃は、かなりの研究関心を集めている。
最も急降下率の高い既存手法は高い攻撃成功率を達成したが、不条件問題により性能が低下することがある。
この制限に対処するために,この種の問題に有効な共役勾配法(CG)法を用い,自動共役勾配法(ACG)攻撃というCG法に触発された新たな攻撃アルゴリズムを提案する。
最新のロバストモデルを用いた大規模評価実験の結果、ほとんどのモデルにおいて、AIGは既存のSOTAアルゴリズムであるAuto-PGD (APGD) よりも少ないイテレーションで、より敵対的な例を見つけることができた。
本研究では, ACG と APGD の探索性能の違いを多様化と強化の観点から検討し,多様性度を定量化するための多様性指数 (DI) と呼ばれる尺度を定義した。
この指標を用いた多様性の分析から,提案手法のより多様な探索により,攻撃成功率を著しく向上させることを示す。
関連論文リスト
- Golden Ratio Search: A Low-Power Adversarial Attack for Deep Learning based Modulation Classification [8.187445866881637]
深層学習に基づく自動変調分類(AMC)のための最小パワー・ホワイトボックス対向攻撃を提案する。
提案手法の有効性を,既存の攻撃手法との比較により評価した。
実験の結果、提案した攻撃は強力で、最小限の電力を必要とし、より少ない時間で発生可能であることが示された。
論文 参考訳(メタデータ) (2024-09-17T17:17:54Z) - Enhancing Output Diversity Improves Conjugate Gradient-based Adversarial Attacks [2.4374097382908477]
本研究では,共役勾配法に着想を得た自動共役勾配(ACG)攻撃に焦点を当てた。
本稿では2つの連続する探索点間の距離に大きく影響する2つのコンポーネントを自動的に修正するRescaling-ACG(ReACG)を提案する。
実験結果から、2つの連続した探索点間の距離が出力の多様性を高め、新たな攻撃を発生させる可能性が示唆された。
論文 参考訳(メタデータ) (2024-08-07T07:07:35Z) - GE-AdvGAN: Improving the transferability of adversarial samples by
gradient editing-based adversarial generative model [69.71629949747884]
GAN(Generative Adversarial Networks)のような逆生成モデルは、様々な種類のデータを生成するために広く応用されている。
本研究では, GE-AdvGAN という新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-01-11T16:43:16Z) - Model Stealing Attack against Graph Classification with Authenticity, Uncertainty and Diversity [80.16488817177182]
GNNは、クエリ許可を通じてターゲットモデルを複製するための悪行であるモデル盗難攻撃に対して脆弱である。
異なるシナリオに対応するために,3つのモデルステルス攻撃を導入する。
論文 参考訳(メタデータ) (2023-12-18T05:42:31Z) - Deep Combinatorial Aggregation [58.78692706974121]
ディープアンサンブル(Deep ensemble)は、不確実性を考慮した学習タスクの最先端結果を実現する、シンプルで効果的な方法である。
本研究では,ディープアグリゲーション(DCA)と呼ばれるディープアンサンブルの一般化について検討する。
DCAはネットワークコンポーネントの複数のインスタンスを生成し、それらの組み合わせを集約して、多様化したモデルの提案と予測を生成する。
論文 参考訳(メタデータ) (2022-10-12T17:35:03Z) - Improving robustness of jet tagging algorithms with adversarial training [56.79800815519762]
本研究では,フレーバータグ付けアルゴリズムの脆弱性について,敵攻撃による検証を行った。
シミュレーション攻撃の影響を緩和する対人訓練戦略を提案する。
論文 参考訳(メタデータ) (2022-03-25T19:57:19Z) - MUTEN: Boosting Gradient-Based Adversarial Attacks via Mutant-Based
Ensembles [16.424441015545252]
MUTENは、勾配マスキングモデルに対するよく知られた攻撃の成功率を改善するための低コストな手法である。
MUTENは4回の攻撃の成功率を最大0.45まで向上させることができる。
論文 参考訳(メタデータ) (2021-09-27T07:15:01Z) - Adversarial examples attack based on random warm restart mechanism and
improved Nesterov momentum [0.0]
一部の研究は、ディープラーニングモデルが敵の例を攻撃し、誤った判断に弱いことを指摘している。
ランダムなウォームリスタート機構とネステロフ運動量改善に基づくRWR-NM-PGD攻撃アルゴリズムを提案する。
攻撃成功率は平均46.3077%であり,I-FGSMより27.19%,PGDより9.27%高い。
論文 参考訳(メタデータ) (2021-05-10T07:24:25Z) - Performance Evaluation of Adversarial Attacks: Discrepancies and
Solutions [51.8695223602729]
機械学習モデルの堅牢性に挑戦するために、敵対攻撃方法が開発されました。
本稿では,Piece-wise Sampling Curving(PSC)ツールキットを提案する。
psc toolkitは計算コストと評価効率のバランスをとるオプションを提供する。
論文 参考訳(メタデータ) (2021-04-22T14:36:51Z) - Adversarial example generation with AdaBelief Optimizer and Crop
Invariance [8.404340557720436]
敵攻撃は、安全クリティカルなアプリケーションにおいて堅牢なモデルを評価し、選択するための重要な方法である。
本稿では,AdaBelief Iterative Fast Gradient Method (ABI-FGM)とCrop-Invariant attack Method (CIM)を提案する。
我々の手法は、最先端の勾配に基づく攻撃法よりも成功率が高い。
論文 参考訳(メタデータ) (2021-02-07T06:00:36Z) - A Hamiltonian Monte Carlo Method for Probabilistic Adversarial Attack
and Learning [122.49765136434353]
本稿では,HMCAM (Acumulated Momentum) を用いたハミルトニアンモンテカルロ法を提案する。
また, 対数的対数的対数的学習(Contrastive Adversarial Training, CAT)と呼ばれる新たな生成法を提案し, 対数的例の平衡分布にアプローチする。
いくつかの自然画像データセットと実用システムに関する定量的および定性的な解析により、提案アルゴリズムの優位性が確認された。
論文 参考訳(メタデータ) (2020-10-15T16:07:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。