論文の概要: Non-Uniform Illumination Attack for Fooling Convolutional Neural Networks
- arxiv url: http://arxiv.org/abs/2409.03458v1
- Date: Thu, 5 Sep 2024 12:14:33 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-06 20:50:03.337934
- Title: Non-Uniform Illumination Attack for Fooling Convolutional Neural Networks
- Title(参考訳): 畳み込みニューラルネットワークの非均一照明攻撃
- Authors: Akshay Jain, Shiv Ram Dubey, Satish Kumar Singh, KC Santosh, Bidyut Baran Chaudhuri,
- Abstract要約: 本研究では,NUIマスクを用いて画像が微調整される非均一照明(NUI)攻撃手法を提案する。
CIFAR10、TinyImageNet、CalTech256など、広く受け入れられたデータセットで実験が行われる。
その結果,NUI攻撃による摂動画像に直面する場合,CNNモデルの性能は著しく向上した。
- 参考スコア(独自算出の注目度): 15.79435346574302
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Convolutional Neural Networks (CNNs) have made remarkable strides; however, they remain susceptible to vulnerabilities, particularly in the face of minor image perturbations that humans can easily recognize. This weakness, often termed as 'attacks', underscores the limited robustness of CNNs and the need for research into fortifying their resistance against such manipulations. This study introduces a novel Non-Uniform Illumination (NUI) attack technique, where images are subtly altered using varying NUI masks. Extensive experiments are conducted on widely-accepted datasets including CIFAR10, TinyImageNet, and CalTech256, focusing on image classification with 12 different NUI attack models. The resilience of VGG, ResNet, MobilenetV3-small and InceptionV3 models against NUI attacks are evaluated. Our results show a substantial decline in the CNN models' classification accuracy when subjected to NUI attacks, indicating their vulnerability under non-uniform illumination. To mitigate this, a defense strategy is proposed, including NUI-attacked images, generated through the new NUI transformation, into the training set. The results demonstrate a significant enhancement in CNN model performance when confronted with perturbed images affected by NUI attacks. This strategy seeks to bolster CNN models' resilience against NUI attacks.
- Abstract(参考訳): 畳み込みニューラルネットワーク(CNN)は目覚ましい進歩を遂げているが、脆弱性、特に人間が容易に認識できる微妙なイメージの摂動に直面している。
この弱点は、しばしば「攻撃」と呼ばれ、CNNの限られた堅牢さと、そのような操作に対する彼らの抵抗を補強する研究の必要性を浮き彫りにしている。
本研究では,NUIマスクを用いて画像が微調整される非均一照明(NUI)攻撃手法を提案する。
CIFAR10、TinyImageNet、CalTech256など、広く受け入れられたデータセットで大規模な実験が行われ、12種類のNUI攻撃モデルによる画像分類に焦点を当てている。
NUI攻撃に対するVGG,ResNet,MobilenetV3-smallおよびInceptionV3モデルのレジリエンスを評価する。
その結果,NUI攻撃を受けた場合のCNNモデルの分類精度は著しく低下し,非均一照明下での脆弱性が示唆された。
これを軽減するため,新たなNUI変換によって生成されたNUI攻撃画像を含む防衛戦略をトレーニングセットに提案する。
その結果,NUI攻撃による摂動画像に直面する場合,CNNモデルの性能は著しく向上した。
この戦略は、CNNモデルのNUI攻撃に対するレジリエンスを強化することを目指している。
関連論文リスト
- Impact of White-Box Adversarial Attacks on Convolutional Neural Networks [0.6138671548064356]
本稿では,畳み込みニューラルネットワーク(CNN)のホワイトボックス攻撃に対する感受性について検討する。
本研究は、敵の脅威に対するCNNの堅牢性に関する知見を提供する。
論文 参考訳(メタデータ) (2024-10-02T21:24:08Z) - Leveraging Many-To-Many Relationships for Defending Against Visual-Language Adversarial Attacks [2.5475486924467075]
本稿では,視覚言語(VL)モデルに対する敵対的攻撃に対する防衛戦略を初めて検討する。
我々は,敵の強靭性を高めるため,IMRにおけるN:N関係の活用に焦点をあてる。
画像・テキスト・ペアのアライメントは,防衛戦略の有効性に不可欠であることを示す。
論文 参考訳(メタデータ) (2024-05-29T05:20:02Z) - Practical No-box Adversarial Attacks with Training-free Hybrid Image
Transformation [123.33816363589506]
ノンボックス脅威モデルの下では, テキストbftraining-free adversarial perturbationの存在を示す。
低レベルの特徴を持つ高周波成分 (HFC) ドメインは, 主に周波数成分の操作によって画像を攻撃する。
我々の手法は、主流の転送ベースのブラックボックス攻撃と競合する。
論文 参考訳(メタデータ) (2022-03-09T09:51:00Z) - Neural Architecture Dilation for Adversarial Robustness [56.18555072877193]
畳み込みニューラルネットワークの欠点は、敵の攻撃に弱いことである。
本稿では, 良好な精度を有する背骨CNNの対角的堅牢性を向上させることを目的とする。
最小限の計算オーバーヘッドの下では、拡張アーキテクチャはバックボーンCNNの標準的な性能と親和性が期待できる。
論文 参考訳(メタデータ) (2021-08-16T03:58:00Z) - Adaptive Feature Alignment for Adversarial Training [56.17654691470554]
CNNは通常、敵攻撃に対して脆弱であり、セキュリティに敏感なアプリケーションに脅威をもたらす。
任意の攻撃強度の特徴を生成するための適応的特徴アライメント(AFA)を提案する。
本手法は任意の攻撃強度の特徴を自動的に整列するように訓練されている。
論文 参考訳(メタデータ) (2021-05-31T17:01:05Z) - BreakingBED -- Breaking Binary and Efficient Deep Neural Networks by
Adversarial Attacks [65.2021953284622]
CNNのホワイトボックス攻撃やブラックボックス攻撃に対する堅牢性について検討する。
結果は、蒸留されたCNN、エージェントベースの最新のprunedモデル、およびバイナライズニューラルネットワークのために示されています。
論文 参考訳(メタデータ) (2021-03-14T20:43:19Z) - Error Diffusion Halftoning Against Adversarial Examples [85.11649974840758]
敵対的な例には、深いニューラルネットワークを誤った予測にだますことができる慎重に作られた摂動が含まれます。
誤り拡散のハーフトン化に基づく新しい画像変換防御を提案し、逆転の例に対して防御するための逆転訓練と組み合わせます。
論文 参考訳(メタデータ) (2021-01-23T07:55:02Z) - Dual Manifold Adversarial Robustness: Defense against Lp and non-Lp
Adversarial Attacks [154.31827097264264]
敵の訓練は、境界Lpノルムを持つ攻撃脅威モデルに対する一般的な防衛戦略である。
本稿では,2次元マニフォールド逆行訓練(DMAT)を提案する。
我々のDMATは、通常の画像の性能を改善し、Lp攻撃に対する標準的な敵の訓練と同等の堅牢性を達成する。
論文 参考訳(メタデータ) (2020-09-05T06:00:28Z) - TensorShield: Tensor-based Defense Against Adversarial Attacks on Images [7.080154188969453]
近年の研究では、ディープニューラルネットワーク(DNN)のような機械学習アプローチが、敵の攻撃によって簡単に騙されることが示されている。
本稿では,テンソル分解法を前処理のステップとして利用して,高頻度摂動を著しく排除できる画像の低ランク近似を求める。
論文 参考訳(メタデータ) (2020-02-18T00:39:49Z) - Adversarial Attacks on Convolutional Neural Networks in Facial
Recognition Domain [2.4704085162861693]
Deep Neural Network(DNN)分類器を実生活で脆弱にする敵攻撃は、自動運転車、マルウェアフィルター、生体認証システムにおいて深刻な脅威となる。
我々はFast Gradient Sign Methodを適用し、顔画像データセットに摂動を導入し、異なる分類器で出力をテストする。
我々は、最小の敵対的知識を前提に、さまざまなブラックボックス攻撃アルゴリズムを顔画像データセット上に構築する。
論文 参考訳(メタデータ) (2020-01-30T00:25:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。