論文の概要: Adversarial Attacks on Image Classification Models: Analysis and Defense
- arxiv url: http://arxiv.org/abs/2312.16880v1
- Date: Thu, 28 Dec 2023 08:08:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-29 16:59:40.328353
- Title: Adversarial Attacks on Image Classification Models: Analysis and Defense
- Title(参考訳): 画像分類モデルに対する敵対的攻撃:分析と防御
- Authors: Jaydip Sen, Abhiraj Sen, and Ananda Chatterjee
- Abstract要約: 畳み込みニューラルネットワーク(CNN)に基づく画像分類モデルに対する敵対的攻撃
高速勾配符号法 (FGSM) について検討し, 画像分類モデルの性能への影響について検討した。
FGSM攻撃に対する防御機構は、改良された防御蒸留に基づくアプローチに基づいて提案されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The notion of adversarial attacks on image classification models based on
convolutional neural networks (CNN) is introduced in this work. To classify
images, deep learning models called CNNs are frequently used. However, when the
networks are subject to adversarial attacks, extremely potent and previously
trained CNN models that perform quite effectively on image datasets for image
classification tasks may perform poorly. In this work, one well-known
adversarial attack known as the fast gradient sign method (FGSM) is explored
and its adverse effects on the performances of image classification models are
examined. The FGSM attack is simulated on three pre-trained image classifier
CNN architectures, ResNet-101, AlexNet, and RegNetY 400MF using randomly chosen
images from the ImageNet dataset. The classification accuracies of the models
are computed in the absence and presence of the attack to demonstrate the
detrimental effect of the attack on the performances of the classifiers.
Finally, a mechanism is proposed to defend against the FGSM attack based on a
modified defensive distillation-based approach. Extensive results are presented
for the validation of the proposed scheme.
- Abstract(参考訳): 本稿では,畳み込みニューラルネットワーク(CNN)に基づく画像分類モデルに対する逆攻撃の概念を紹介する。
画像の分類には、CNNと呼ばれるディープラーニングモデルが頻繁に使用される。
しかし、ネットワークが敵攻撃を受ける場合、画像分類タスクのための画像データセットに非常に効果的に機能する非常に強力で以前に訓練されたCNNモデルは、性能が劣る可能性がある。
本研究では,高速勾配符号法 (FGSM) として知られる1つの敵攻撃について検討し,画像分類モデルの性能に対する悪影響について検討した。
FGSM攻撃は、ImageNetデータセットからランダムに選択された画像を使用して、3つのトレーニング済みイメージ分類器CNNアーキテクチャ、ResNet-101、AlexNet、RegNetY 400MFでシミュレートされる。
モデルの分類精度は攻撃の有無と存在によって計算され、攻撃が分類器の性能に悪影響を及ぼすことを示す。
最後に,FGSM攻撃に対する防御機構を提案する。
提案手法の検証には広範な結果が得られた。
関連論文リスト
- Counterfactual Image Generation for adversarially robust and
interpretable Classifiers [1.3859669037499769]
本稿では,GAN(Generative Adrial Networks)を基盤として,画像から画像への変換を利用した統合フレームワークを提案する。
これは、分類器と識別器を1つのモデルに組み合わせて、実際の画像をそれぞれのクラスに属性付け、生成されたイメージを「フェイク」として生成することで達成される。
モデルが敵攻撃に対するロバスト性の向上を示すことを示すとともに,判別器の「フェイクネス」値が予測の不確かさの指標となることを示す。
論文 参考訳(メタデータ) (2023-10-01T18:50:29Z) - Adversarial Attacks on Image Classification Models: FGSM and Patch
Attacks and their Impact [0.0]
本章では、畳み込みニューラルネットワーク(CNN)上に構築された画像分類モデルに対する逆攻撃の概念を紹介する。
CNNは画像分類タスクで使用される非常に人気のあるディープラーニングモデルである。
2つの非常によく知られた敵対的攻撃について論じ、画像分類器の性能への影響について分析した。
論文 参考訳(メタデータ) (2023-07-05T06:40:08Z) - Semantic Image Attack for Visual Model Diagnosis [80.36063332820568]
実際には、特定の列車およびテストデータセットに関する計量分析は、信頼性や公正なMLモデルを保証しない。
本稿では,セマンティック・イメージ・アタック(SIA)を提案する。
論文 参考訳(メタデータ) (2023-03-23T03:13:04Z) - Attackar: Attack of the Evolutionary Adversary [0.0]
本稿では、進化的、スコアベース、ブラックボックス攻撃であるtextitAttackarを紹介する。
アタッカーは、勾配のない最適化問題に使用できる新しい目的関数に基づいている。
以上の結果から,精度とクエリ効率の両面で,Attackarの優れた性能を示す。
論文 参考訳(メタデータ) (2022-08-17T13:57:23Z) - Diffusion Models for Adversarial Purification [69.1882221038846]
対人浄化(Adrial purification)とは、生成モデルを用いて敵の摂動を除去する防衛方法の分類である。
そこで我々は,拡散モデルを用いたDiffPureを提案する。
提案手法は,現在の対人訓練および対人浄化方法よりも優れ,最先端の成果を達成する。
論文 参考訳(メタデータ) (2022-05-16T06:03:00Z) - Practical No-box Adversarial Attacks with Training-free Hybrid Image
Transformation [123.33816363589506]
ノンボックス脅威モデルの下では, テキストbftraining-free adversarial perturbationの存在を示す。
低レベルの特徴を持つ高周波成分 (HFC) ドメインは, 主に周波数成分の操作によって画像を攻撃する。
我々の手法は、主流の転送ベースのブラックボックス攻撃と競合する。
論文 参考訳(メタデータ) (2022-03-09T09:51:00Z) - Meta Adversarial Perturbations [66.43754467275967]
メタ逆境摂動(MAP)の存在を示す。
MAPは1段階の上昇勾配更新によって更新された後、自然画像を高い確率で誤分類する。
これらの摂動は画像に依存しないだけでなく、モデルに依存しないものであり、単一の摂動は見えないデータポイントと異なるニューラルネットワークアーキテクチャにまたがってうまく一般化される。
論文 参考訳(メタデータ) (2021-11-19T16:01:45Z) - BreakingBED -- Breaking Binary and Efficient Deep Neural Networks by
Adversarial Attacks [65.2021953284622]
CNNのホワイトボックス攻撃やブラックボックス攻撃に対する堅牢性について検討する。
結果は、蒸留されたCNN、エージェントベースの最新のprunedモデル、およびバイナライズニューラルネットワークのために示されています。
論文 参考訳(メタデータ) (2021-03-14T20:43:19Z) - Learning degraded image classification with restoration data fidelity [0.0]
広く使用されている4つの分類ネットワークにおける分解型およびレベルの影響について検討する。
本稿では,事前学習したネットワークで得られた画像特徴を忠実度マップを用いて校正する手法を提案する。
その結果,提案手法は画像劣化による影響を緩和する有望な解であることがわかった。
論文 参考訳(メタデータ) (2021-01-23T23:47:03Z) - Leveraging Siamese Networks for One-Shot Intrusion Detection Model [0.0]
侵入検知システムを強化するための機械学習(ML)が重要な研究対象となっている。
モデルの再トレーニングは、十分な量のデータを取得するのに必要なタイムウインドウのために、ネットワークが攻撃を受けやすいようにする。
ここでは、「ワンショットラーニング」と呼ばれる補完的なアプローチで、新しい攻撃クラスを識別するために、新しい攻撃クラスの限られた例を用いる。
Siamese Networkは、機能ではなく、ペアの類似性に基づいてクラスを区別するように訓練されており、新しい、以前は目に見えない攻撃を識別することができる。
論文 参考訳(メタデータ) (2020-06-27T11:40:01Z) - Transferable Perturbations of Deep Feature Distributions [102.94094966908916]
本研究は,クラスワイドおよび層ワイドな特徴分布のモデリングと利用に基づく新たな敵攻撃を提案する。
我々は、未定義の画像ネットモデルに対して、最先端のブラックボックス転送に基づく攻撃結果を得る。
論文 参考訳(メタデータ) (2020-04-27T00:32:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。