論文の概要: Impact of White-Box Adversarial Attacks on Convolutional Neural Networks
- arxiv url: http://arxiv.org/abs/2410.02043v1
- Date: Wed, 2 Oct 2024 21:24:08 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-04 09:15:25.012698
- Title: Impact of White-Box Adversarial Attacks on Convolutional Neural Networks
- Title(参考訳): 畳み込みニューラルネットワークにおけるWhite-Box対応攻撃の影響
- Authors: Rakesh Podder, Sudipto Ghosh,
- Abstract要約: 本稿では,畳み込みニューラルネットワーク(CNN)のホワイトボックス攻撃に対する感受性について検討する。
本研究は、敵の脅威に対するCNNの堅牢性に関する知見を提供する。
- 参考スコア(独自算出の注目度): 0.6138671548064356
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Autonomous vehicle navigation and healthcare diagnostics are among the many fields where the reliability and security of machine learning models for image data are critical. We conduct a comprehensive investigation into the susceptibility of Convolutional Neural Networks (CNNs), which are widely used for image data, to white-box adversarial attacks. We investigate the effects of various sophisticated attacks -- Fast Gradient Sign Method, Basic Iterative Method, Jacobian-based Saliency Map Attack, Carlini & Wagner, Projected Gradient Descent, and DeepFool -- on CNN performance metrics, (e.g., loss, accuracy), the differential efficacy of adversarial techniques in increasing error rates, the relationship between perceived image quality metrics (e.g., ERGAS, PSNR, SSIM, and SAM) and classification performance, and the comparative effectiveness of iterative versus single-step attacks. Using the MNIST, CIFAR-10, CIFAR-100, and Fashio_MNIST datasets, we explore the effect of different attacks on the CNNs performance metrics by varying the hyperparameters of CNNs. Our study provides insights into the robustness of CNNs against adversarial threats, pinpoints vulnerabilities, and underscores the urgent need for developing robust defense mechanisms to protect CNNs and ensuring their trustworthy deployment in real-world scenarios.
- Abstract(参考訳): 自動運転車のナビゲーションと医療診断は、画像データに対する機械学習モデルの信頼性とセキュリティが不可欠である多くの分野の1つである。
画像データに広く用いられている畳み込みニューラルネットワーク(CNN)のホワイトボックス攻撃に対する感受性に関する包括的調査を行う。
我々は、CNNのパフォーマンス指標(例えば、損失、精度)、誤り率の増加における敵対的手法の差分効果、知覚された画像品質指標(例えば、ERGAS、PSNR、SSIM、SAM)と分類性能の関係、および反復的対単段階攻撃の有効性について、高速なグラディエント署名法、基本反復法、ヤコビアン・サリエンシ・マップ・アタック、カーリーニ・アンド・ワグナー、投影グラディエント・ディファイア、ディープフールの効果について検討する。
MNIST、CIFAR-10、CIFAR-100、Fashio_MNISTデータセットを用いて、CNNのハイパーパラメータを変化させることで、CNNのパフォーマンス指標に対する異なる攻撃の影響を検討する。
本研究は,CNNの脅威に対する堅牢性,脆弱性の指摘,および,CNNを保護するための堅牢な防御機構の開発と,現実のシナリオにおける信頼性の高い展開の確保に対する緊急の必要性について考察する。
関連論文リスト
- SHEATH: Defending Horizontal Collaboration for Distributed CNNs against Adversarial Noise [1.0415834763540737]
本稿では,適応脅威ハンドリング(SHEATH)を用いたセキュア水平エッジのための新しいフレームワークを提案する。
SHEATHは、HCエッジアーキテクチャにおけるCNNモデルの完全な知識を必要とせずに、脆弱性に対処することを目指している。
本評価は,多様なCNN構成におけるSHEATHの適応性と有効性を示すものである。
論文 参考訳(メタデータ) (2024-09-25T18:45:04Z) - From Environmental Sound Representation to Robustness of 2D CNN Models
Against Adversarial Attacks [82.21746840893658]
本稿では, 各種環境音響表現(スペクトログラム)が, 被害者残差畳み込みニューラルネットワークの認識性能と対角攻撃性に与える影響について検討する。
DWTスペクトログラムでトレーニングしたResNet-18モデルでは高い認識精度が得られたが、このモデルに対する攻撃は敵にとって比較的コストがかかる。
論文 参考訳(メタデータ) (2022-04-14T15:14:08Z) - Improving robustness of jet tagging algorithms with adversarial training [56.79800815519762]
本研究では,フレーバータグ付けアルゴリズムの脆弱性について,敵攻撃による検証を行った。
シミュレーション攻撃の影響を緩和する対人訓練戦略を提案する。
論文 参考訳(メタデータ) (2022-03-25T19:57:19Z) - Neural Architecture Dilation for Adversarial Robustness [56.18555072877193]
畳み込みニューラルネットワークの欠点は、敵の攻撃に弱いことである。
本稿では, 良好な精度を有する背骨CNNの対角的堅牢性を向上させることを目的とする。
最小限の計算オーバーヘッドの下では、拡張アーキテクチャはバックボーンCNNの標準的な性能と親和性が期待できる。
論文 参考訳(メタデータ) (2021-08-16T03:58:00Z) - BreakingBED -- Breaking Binary and Efficient Deep Neural Networks by
Adversarial Attacks [65.2021953284622]
CNNのホワイトボックス攻撃やブラックボックス攻撃に対する堅牢性について検討する。
結果は、蒸留されたCNN、エージェントベースの最新のprunedモデル、およびバイナライズニューラルネットワークのために示されています。
論文 参考訳(メタデータ) (2021-03-14T20:43:19Z) - Exploiting Vulnerability of Pooling in Convolutional Neural Networks by
Strict Layer-Output Manipulation for Adversarial Attacks [7.540176446791261]
畳み込みニューラルネットワーク(CNN)は、インテリジェント車両などの移動ロボットにますます適用されています。
ロボットアプリケーションにおけるCNNのセキュリティは重要な問題であり、CNNに対する潜在的な敵対攻撃は研究に値する。
本稿では,ネットワーク構造の観点から,プールの脆弱性を調査し,活用することで,CNNに対する敵対攻撃を行う。
論文 参考訳(メタデータ) (2020-12-21T15:18:41Z) - Mitigating the Impact of Adversarial Attacks in Very Deep Networks [10.555822166916705]
Deep Neural Network (DNN)モデルにはセキュリティに関する脆弱性がある。
データ中毒による摂動攻撃は、モデルに偽データを注入する複雑な敵対攻撃である。
そこで本研究では,攻撃に依存しない防御手法を提案する。
論文 参考訳(メタデータ) (2020-12-08T21:25:44Z) - Information Obfuscation of Graph Neural Networks [96.8421624921384]
本稿では,グラフ構造化データを用いた学習において,情報難読化による機密属性保護の問題について検討する。
本稿では,全変動量とワッサーシュタイン距離を交互に学習することで,事前決定された機密属性を局所的にフィルタリングするフレームワークを提案する。
論文 参考訳(メタデータ) (2020-09-28T17:55:04Z) - Transferable Perturbations of Deep Feature Distributions [102.94094966908916]
本研究は,クラスワイドおよび層ワイドな特徴分布のモデリングと利用に基づく新たな敵攻撃を提案する。
我々は、未定義の画像ネットモデルに対して、最先端のブラックボックス転送に基づく攻撃結果を得る。
論文 参考訳(メタデータ) (2020-04-27T00:32:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。