論文の概要: A Comparative Study of Adversarial Robustness in CNN and CNN-ANFIS Architectures
- arxiv url: http://arxiv.org/abs/2602.07028v1
- Date: Mon, 02 Feb 2026 20:13:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 20:26:24.375121
- Title: A Comparative Study of Adversarial Robustness in CNN and CNN-ANFIS Architectures
- Title(参考訳): CNNとCNN-ANFISアーキテクチャにおける対向ロバスト性の比較検討
- Authors: Kaaustaaub Shankar, Bharadwaj Dogga, Kelly Cohen,
- Abstract要約: 畳み込みニューラルネットワーク(CNN)は画像分類性能は高いが、解釈性に欠け、敵攻撃に弱い。
DCNFISのようなニューロファジィハイブリッドは、完全に接続されたCNN分類器をアダプティブ・ニューロファジィ推論システム(ANFIS)に置き換え、解釈性を改善する。
この研究は、標準のCNNと、MNIST、Fashion-MNIST、CIFAR-10、CIFAR-100のANFISで強化されたものとを比較した。
以上の結果から,ANFIS統合はクリーンな精度を常に向上せず,ロバスト性にアーキテクチャ依存的な影響があることが示唆された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Convolutional Neural Networks (CNNs) achieve strong image classification performance but lack interpretability and are vulnerable to adversarial attacks. Neuro-fuzzy hybrids such as DCNFIS replace fully connected CNN classifiers with Adaptive Neuro-Fuzzy Inference Systems (ANFIS) to improve interpretability, yet their robustness remains underexplored. This work compares standard CNNs (ConvNet, VGG, ResNet18) with their ANFIS-augmented counterparts on MNIST, Fashion-MNIST, CIFAR-10, and CIFAR-100 under gradient-based (PGD) and gradient-free (Square) attacks. Results show that ANFIS integration does not consistently improve clean accuracy and has architecture-dependent effects on robustness: ResNet18-ANFIS exhibits improved adversarial robustness, while VGG-ANFIS often underperforms its baseline. These findings suggest that neuro-fuzzy augmentation can enhance robustness in specific architectures but is not universally beneficial.
- Abstract(参考訳): 畳み込みニューラルネットワーク(CNN)は画像分類性能は高いが、解釈性に欠け、敵攻撃に弱い。
DCNFISのようなニューロファジィハイブリッドは、完全に接続されたCNN分類器を適応型ニューロファジィ推論システム (ANFIS) に置き換えて解釈性を改善するが、その堅牢性は未解明のままである。
この研究は、標準のCNN(ConvNet、VGG、ResNet18)と、MNIST、Fashion-MNIST、CIFAR-10、CIFAR-100で強化されたANFISとを比較した。
ResNet18-ANFISは対向的ロバスト性を向上し、VGG-ANFISはベースラインを過小評価する。
これらの結果から, 神経ファジィ増強は特定のアーキテクチャの堅牢性を高めるが, 普遍的に有益ではないことが示唆された。
関連論文リスト
- Explicitly Modeling Subcortical Vision with a Neuro-Inspired Front-End Improves CNN Robustness [1.7205106391379026]
物体認識で訓練された畳み込みニューラルネットワーク(CNN)は、高いタスク性能を実現するが、生物学的視覚と比較すると脆弱性を示す。
本稿では,VOneBlockと新しいSubcorticalBlockを組み合わせたハイブリッドCNNの新たなクラスであるEarly Vision Networks(EVNets)を紹介する。
最新のデータ拡張技術と組み合わせることでEVNetをさらに改善できることを示す。
論文 参考訳(メタデータ) (2025-06-03T17:13:51Z) - Proxy Target: Bridging the Gap Between Discrete Spiking Neural Networks and Continuous Control [59.65431931190187]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上で低レイテンシかつエネルギー効率の意思決定を提供する。
連続制御のためのほとんどの連続制御アルゴリズムは、人工ニューラルネットワーク(ANN)のために設計されている。
このミスマッチはSNNのトレーニングを不安定にし、性能を劣化させる。
離散SNNと連続制御アルゴリズムのギャップを埋める新しいプロキシターゲットフレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-30T03:08:03Z) - Impact of White-Box Adversarial Attacks on Convolutional Neural Networks [0.6138671548064356]
本稿では,畳み込みニューラルネットワーク(CNN)のホワイトボックス攻撃に対する感受性について検討する。
本研究は、敵の脅威に対するCNNの堅牢性に関する知見を提供する。
論文 参考訳(メタデータ) (2024-10-02T21:24:08Z) - A Robust Backpropagation-Free Framework for Images [47.97322346441165]
画像データに対するエラーカーネル駆動型アクティベーションアライメントアルゴリズムを提案する。
EKDAAは、ローカルに派生したエラー送信カーネルとエラーマップを導入することで達成される。
結果は、識別不能なアクティベーション機能を利用するEKDAAトレーニングCNNに対して提示される。
論文 参考訳(メタデータ) (2022-06-03T21:14:10Z) - Neural Architecture Dilation for Adversarial Robustness [56.18555072877193]
畳み込みニューラルネットワークの欠点は、敵の攻撃に弱いことである。
本稿では, 良好な精度を有する背骨CNNの対角的堅牢性を向上させることを目的とする。
最小限の計算オーバーヘッドの下では、拡張アーキテクチャはバックボーンCNNの標準的な性能と親和性が期待できる。
論文 参考訳(メタデータ) (2021-08-16T03:58:00Z) - Improving Robustness of Graph Neural Networks with Heterophily-Inspired
Designs [18.524164548051417]
多くのグラフニューラルネットワーク(GNN)は、敵の攻撃に敏感であり、グラフ構造が意図的に乱れた場合、性能損失を被る可能性がある。
ノード特徴がホモフィリで、衝撃的な構造的攻撃が常にヘテロフィリのレベルを上昇させるという標準的なシナリオを示す。
我々は、(i)エゴエンベディングと(ii)アグリゲータの分離したアグリゲータ、および(ii)アグリゲーションの範囲を小さくすることで、GNNのロバスト性を大幅に向上させる2つの設計を提案する。
論文 参考訳(メタデータ) (2021-06-14T21:39:36Z) - BreakingBED -- Breaking Binary and Efficient Deep Neural Networks by
Adversarial Attacks [65.2021953284622]
CNNのホワイトボックス攻撃やブラックボックス攻撃に対する堅牢性について検討する。
結果は、蒸留されたCNN、エージェントベースの最新のprunedモデル、およびバイナライズニューラルネットワークのために示されています。
論文 参考訳(メタデータ) (2021-03-14T20:43:19Z) - Extreme Value Preserving Networks [65.2037926048262]
最近の証拠は、畳み込みニューラルネットワーク(CNN)がテクスチャに偏りがあることを示しており、CNNはテクスチャに逆らう摂動に対して損なわれない。
本稿では,SIFTの優れた特性を活用してCNNアーキテクチャを改良し,精度と堅牢性を向上させることを目的とする。
論文 参考訳(メタデータ) (2020-11-17T02:06:52Z) - Batch Normalization Increases Adversarial Vulnerability and Decreases
Adversarial Transferability: A Non-Robust Feature Perspective [91.5105021619887]
バッチ正規化(BN)は、現代のディープニューラルネットワーク(DNN)で広く使われている。
BNは、対向ロバスト性を犠牲にしてモデル精度を高めることが観察された。
BNが主にロバスト特徴(RF)と非ロバスト特徴(NRF)の学習を好んでいるかどうかは不明である。
論文 参考訳(メタデータ) (2020-10-07T10:24:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。