論文の概要: IGAff: Benchmarking Adversarial Iterative and Genetic Affine Algorithms on Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2509.06459v1
- Date: Mon, 08 Sep 2025 09:12:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-09 14:07:04.028501
- Title: IGAff: Benchmarking Adversarial Iterative and Genetic Affine Algorithms on Deep Neural Networks
- Title(参考訳): IGAff:ディープニューラルネットワーク上の逆反復および遺伝的アフィンアルゴリズムのベンチマーク
- Authors: Sebastian-Vasile Echim, Andrei-Alexandru Preda, Dumitru-Clementin Cercel, Florin Pop,
- Abstract要約: ResNet-18、DenseNet-121、Swin Transformer V2、Vision Transformerネットワークアーキテクチャ上の逆アルゴリズム。
我々は、アフィン変換と遺伝的アルゴリズムに基づく、2つの新しいブラックボックス反復逆アルゴリズムをベンチマークする。
文献の類似手法よりも画像分類作業の精度が向上し,最大8.82%の精度向上が達成された。
- 参考スコア(独自算出の注目度): 3.1967266175848246
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Deep neural networks currently dominate many fields of the artificial intelligence landscape, achieving state-of-the-art results on numerous tasks while remaining hard to understand and exhibiting surprising weaknesses. An active area of research focuses on adversarial attacks, which aim to generate inputs that uncover these weaknesses. However, this proves challenging, especially in the black-box scenario where model details are inaccessible. This paper explores in detail the impact of such adversarial algorithms on ResNet-18, DenseNet-121, Swin Transformer V2, and Vision Transformer network architectures. Leveraging the Tiny ImageNet, Caltech-256, and Food-101 datasets, we benchmark two novel black-box iterative adversarial algorithms based on affine transformations and genetic algorithms: 1) Affine Transformation Attack (ATA), an iterative algorithm maximizing our attack score function using random affine transformations, and 2) Affine Genetic Attack (AGA), a genetic algorithm that involves random noise and affine transformations. We evaluate the performance of the models in the algorithm parameter variation, data augmentation, and global and targeted attack configurations. We also compare our algorithms with two black-box adversarial algorithms, Pixle and Square Attack. Our experiments yield better results on the image classification task than similar methods in the literature, achieving an accuracy improvement of up to 8.82%. We provide noteworthy insights into successful adversarial defenses and attacks at both global and targeted levels, and demonstrate adversarial robustness through algorithm parameter variation.
- Abstract(参考訳): 現在、ディープニューラルネットワークは人工知能の多くの分野を支配しており、多くのタスクにおいて最先端の結果を達成する一方で、理解しづらく、驚くべき弱点を示しています。
研究の活発な領域は、これらの弱点を明らかにする入力を生成することを目的とした敵攻撃に焦点を当てている。
しかし、特にモデルの詳細がアクセスできないブラックボックスのシナリオでは、これは難しい。
本稿では,ResNet-18,DenseNet-121,Swin Transformer V2,Vision Transformerネットワークアーキテクチャに対する,このような逆アルゴリズムの影響を詳細に検討する。
Tiny ImageNet、Caltech-256、Food-101データセットを活用して、アフィン変換と遺伝的アルゴリズムに基づく、2つの新しいブラックボックス反復逆アルゴリズムをベンチマークする。
1 アフィン変換攻撃(ATA) - ランダムアフィン変換を用いて攻撃スコア関数を最大化する反復アルゴリズム。
2)アフィン・ジェネティック・アタック (AGA) はランダムノイズとアフィン変換を含む遺伝的アルゴリズムである。
アルゴリズムパラメータの変動,データ拡張,グローバルおよびターゲットアタック構成におけるモデルの性能を評価する。
また、我々のアルゴリズムを2つのブラックボックスの敵アルゴリズム、PixleとSquare Attackと比較する。
文献の類似手法よりも画像分類作業の精度が向上し,最大8.82%の精度向上が達成された。
我々は,グローバルレベルとターゲットレベルの両方において,敵の防御と攻撃を成功させる上で重要な知見を提供し,アルゴリズムパラメータの変動による敵の堅牢性を示す。
関連論文リスト
- Adversarial attacks to image classification systems using evolutionary algorithms [0.3683202928838613]
本稿では,進化的アルゴリズムと生成的逆数ネットワークの組み合わせを用いて,画像分類器に対する逆数攻撃を生成する手法について検討する。
提案手法は, 逆数攻撃を表すベクトルを求める進化的アルゴリズムを用いて, 生成逆数ネットワークの潜伏空間を探索する。
その結果,手書き文字では最大35%,オブジェクト画像では最大75%が成功率を示した。
論文 参考訳(メタデータ) (2025-07-17T13:57:21Z) - GE-AdvGAN: Improving the transferability of adversarial samples by
gradient editing-based adversarial generative model [69.71629949747884]
GAN(Generative Adversarial Networks)のような逆生成モデルは、様々な種類のデータを生成するために広く応用されている。
本研究では, GE-AdvGAN という新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-01-11T16:43:16Z) - Meta Adversarial Perturbations [66.43754467275967]
メタ逆境摂動(MAP)の存在を示す。
MAPは1段階の上昇勾配更新によって更新された後、自然画像を高い確率で誤分類する。
これらの摂動は画像に依存しないだけでなく、モデルに依存しないものであり、単一の摂動は見えないデータポイントと異なるニューラルネットワークアーキテクチャにまたがってうまく一般化される。
論文 参考訳(メタデータ) (2021-11-19T16:01:45Z) - Neural Network Adversarial Attack Method Based on Improved Genetic
Algorithm [0.0]
改良された遺伝的アルゴリズムに基づくニューラルネットワーク逆攻撃法を提案する。
この方法は、ニューラルネットワークモデルの内部構造やパラメータ情報を必要としない。
論文 参考訳(メタデータ) (2021-10-05T04:46:16Z) - Sparse and Imperceptible Adversarial Attack via a Homotopy Algorithm [93.80082636284922]
少数の敵対的攻撃は、数ピクセルを摂動するだけでディープ・ネットワーク(DNN)を騙すことができる。
近年の取り組みは、他の等級のl_infty摂動と組み合わせている。
本稿では,空間的・神経的摂動に対処するホモトピーアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-10T20:11:36Z) - Targeted Attack against Deep Neural Networks via Flipping Limited Weight
Bits [55.740716446995805]
我々は,悪質な目的で展開段階におけるモデルパラメータを修飾する新しい攻撃パラダイムについて検討する。
私たちのゴールは、特定のサンプルをサンプル修正なしでターゲットクラスに誤分類することです。
整数プログラミングにおける最新の手法を利用することで、このBIP問題を連続最適化問題として等価に再構成する。
論文 参考訳(メタデータ) (2021-02-21T03:13:27Z) - A black-box adversarial attack for poisoning clustering [78.19784577498031]
本稿では,クラスタリングアルゴリズムのロバスト性をテストするために,ブラックボックス対逆攻撃法を提案する。
我々の攻撃は、SVM、ランダムフォレスト、ニューラルネットワークなどの教師付きアルゴリズムに対しても転送可能であることを示す。
論文 参考訳(メタデータ) (2020-09-09T18:19:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。