論文の概要: Enhancing Output Diversity Improves Conjugate Gradient-based Adversarial Attacks
- arxiv url: http://arxiv.org/abs/2408.03972v1
- Date: Wed, 7 Aug 2024 07:07:35 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-09 17:39:48.444447
- Title: Enhancing Output Diversity Improves Conjugate Gradient-based Adversarial Attacks
- Title(参考訳): 出力の多様性を高めることで、共役的なグラディエントベースの敵攻撃が改善
- Authors: Keiichiro Yamamura, Issa Oe, Hiroki Ishikura, Katsuki Fujisawa,
- Abstract要約: 本研究では,共役勾配法に着想を得た自動共役勾配(ACG)攻撃に焦点を当てた。
本稿では2つの連続する探索点間の距離に大きく影響する2つのコンポーネントを自動的に修正するRescaling-ACG(ReACG)を提案する。
実験結果から、2つの連続した探索点間の距離が出力の多様性を高め、新たな攻撃を発生させる可能性が示唆された。
- 参考スコア(独自算出の注目度): 2.4374097382908477
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks are vulnerable to adversarial examples, and adversarial attacks that generate adversarial examples have been studied in this context. Existing studies imply that increasing the diversity of model outputs contributes to improving the attack performance. This study focuses on the Auto Conjugate Gradient (ACG) attack, which is inspired by the conjugate gradient method and has a high diversification performance. We hypothesized that increasing the distance between two consecutive search points would enhance the output diversity. To test our hypothesis, we propose Rescaling-ACG (ReACG), which automatically modifies the two components that significantly affect the distance between two consecutive search points, including the search direction and step size. ReACG showed higher attack performance than that of ACG, and is particularly effective for ImageNet models with several classification classes. Experimental results show that the distance between two consecutive search points enhances the output diversity and may help develop new potent attacks. The code is available at \url{https://github.com/yamamura-k/ReACG}
- Abstract(参考訳): ディープニューラルネットワークは敵の例に対して脆弱であり、敵の例を生成する敵攻撃はこの文脈で研究されている。
既存の研究は、モデル出力の多様性の増大が攻撃性能の向上に寄与していることを示唆している。
本研究は,共役勾配法にインスパイアされた自動共役勾配(ACG)攻撃に焦点をあてる。
2つの連続探索点間の距離を増大させると出力の多様性が増すという仮説を立てた。
提案するRescaling-ACG(Rescaling-ACG)は,探索方向とステップサイズを含む2つの連続探索点間の距離に大きく影響する2つのコンポーネントを自動的に修正する。
ReACGはACGよりも高い攻撃性能を示し、特にいくつかの分類クラスを持つImageNetモデルに有効である。
実験結果から、2つの連続した探索点間の距離が出力の多様性を高め、新たな攻撃を発生させる可能性が示唆された。
コードは \url{https://github.com/yamamura-k/ReACG} で公開されている。
関連論文リスト
- Ensemble Adversarial Defense via Integration of Multiple Dispersed Low Curvature Models [7.8245455684263545]
本研究では,攻撃伝達性を低減し,アンサンブルの多様性を高めることを目的とする。
損失曲率を表す2階勾配を, 対向的強靭性の重要な要因として同定する。
本稿では,複数変数の低曲率ネットワークモデルをトレーニングするための新しい正規化器を提案する。
論文 参考訳(メタデータ) (2024-03-25T03:44:36Z) - GE-AdvGAN: Improving the transferability of adversarial samples by
gradient editing-based adversarial generative model [69.71629949747884]
GAN(Generative Adversarial Networks)のような逆生成モデルは、様々な種類のデータを生成するために広く応用されている。
本研究では, GE-AdvGAN という新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-01-11T16:43:16Z) - Dual Adversarial Resilience for Collaborating Robust Underwater Image
Enhancement and Perception [54.672052775549]
本研究では,水中画像の強調と検出を行うために,CARNetと呼ばれる協調的対向レジリエンスネットワークを導入する。
本稿では,ネットワークが様々な種類の攻撃を識別・除去できるように,視覚駆動型と知覚駆動型の両方による同時攻撃訓練戦略を提案する。
実験により,提案手法は画像の高画質化を図り,最先端の手法よりも平均6.71%高い検出精度が得られた。
論文 参考訳(メタデータ) (2023-09-03T06:52:05Z) - Everything Perturbed All at Once: Enabling Differentiable Graph Attacks [61.61327182050706]
グラフニューラルネットワーク(GNN)は敵の攻撃に弱いことが示されている。
本稿では,DGA(Dariable Graph Attack)と呼ばれる新しい攻撃手法を提案し,効果的な攻撃を効率的に生成する。
最先端と比較して、DGAは6倍のトレーニング時間と11倍のGPUメモリフットプリントでほぼ同等の攻撃性能を達成する。
論文 参考訳(メタデータ) (2023-08-29T20:14:42Z) - Multi-objective Evolutionary Search of Variable-length Composite
Semantic Perturbations [1.9100854225243937]
可変長複合意味摂動(MES-VCSP)の多目的進化探索法を提案する。
MES-VCSPは、高い攻撃成功率、より自然性、より少ない時間コストで敵の例を得ることができる。
論文 参考訳(メタデータ) (2023-07-13T04:08:16Z) - Guidance Through Surrogate: Towards a Generic Diagnostic Attack [101.36906370355435]
我々は、攻撃最適化中に局所最小限を避けるための誘導機構を開発し、G-PGAと呼ばれる新たな攻撃に繋がる。
修正された攻撃では、ランダムに再起動したり、多数の攻撃を繰り返したり、最適なステップサイズを検索したりする必要がありません。
効果的な攻撃以上に、G-PGAは敵防御における勾配マスキングによる解離性堅牢性を明らかにするための診断ツールとして用いられる。
論文 参考訳(メタデータ) (2022-12-30T18:45:23Z) - Alternating Objectives Generates Stronger PGD-Based Adversarial Attacks [78.2700757742992]
Projected Gradient Descent (PGD) は、そのような敵を生成するための最も効果的で概念的にシンプルなアルゴリズムの1つである。
この主張を合成データの例で実験的に検証し、提案手法を25の$ell_infty$-robustモデルと3つのデータセットで評価した。
私たちの最強の敵攻撃は、AutoAttackアンサンブルのすべてのホワイトボックスコンポーネントより優れています。
論文 参考訳(メタデータ) (2022-12-15T17:44:31Z) - Diversified Adversarial Attacks based on Conjugate Gradient Method [1.759008116536278]
本稿では,共役勾配法(CG)に着想を得た新しい攻撃アルゴリズムを提案する。
ACGは既存のSOTAアルゴリズムであるAuto-PGDよりも少ないイテレーションで、より逆の例を見つけることができる。
この指標を用いた多様性の分析から,提案手法の探索がより多種多様になればなるほど,攻撃成功率が著しく向上することを示した。
論文 参考訳(メタデータ) (2022-06-20T08:24:02Z) - Recent improvements of ASR models in the face of adversarial attacks [28.934863462633636]
音声認識モデルは敵攻撃に対して脆弱である。
異なる攻撃アルゴリズムの相対的強度は、モデルアーキテクチャを変更する際に大きく異なることを示す。
ソースコードをパッケージとしてリリースし、将来の攻撃と防御の評価に役立ちます。
論文 参考訳(メタデータ) (2022-03-29T22:40:37Z) - Adversarial examples attack based on random warm restart mechanism and
improved Nesterov momentum [0.0]
一部の研究は、ディープラーニングモデルが敵の例を攻撃し、誤った判断に弱いことを指摘している。
ランダムなウォームリスタート機構とネステロフ運動量改善に基づくRWR-NM-PGD攻撃アルゴリズムを提案する。
攻撃成功率は平均46.3077%であり,I-FGSMより27.19%,PGDより9.27%高い。
論文 参考訳(メタデータ) (2021-05-10T07:24:25Z) - Boosting Gradient for White-Box Adversarial Attacks [60.422511092730026]
そこで本研究では,ADV-ReLUと呼ばれる,勾配に基づくホワイトボックス攻撃アルゴリズムの性能向上を目的とした,汎用的な逆例生成手法を提案する。
提案手法では,損失関数とネットワーク入力の勾配を算出し,その値をスコアにマップし,その一部を選択して誤導勾配を更新する。
論文 参考訳(メタデータ) (2020-10-21T02:13:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。