論文の概要: Entropy-Based Non-Invasive Reliability Monitoring of Convolutional Neural Networks
- arxiv url: http://arxiv.org/abs/2508.21715v1
- Date: Fri, 29 Aug 2025 15:33:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-01 19:45:11.097008
- Title: Entropy-Based Non-Invasive Reliability Monitoring of Convolutional Neural Networks
- Title(参考訳): エントロピーに基づく畳み込みニューラルネットワークの非侵襲的信頼性モニタリング
- Authors: Amirhossein Nazeri, Wael Hafez,
- Abstract要約: 対向摂動はCNNアクティベーションにおいて即時かつ検出可能なエントロピーシグネチャを生成することを示す。
敵の入力は初期畳み込み層において、活性化エントロピーを7%変化させることを示した。
この研究は、CNNの信頼性をアクティベーションエントロピーだけで評価できることを確立し、自己診断型視覚システムの実践的な展開を可能にした。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Convolutional Neural Networks (CNNs) have become the foundation of modern computer vision, achieving unprecedented accuracy across diverse image recognition tasks. While these networks excel on in-distribution data, they remain vulnerable to adversarial perturbations imperceptible input modifications that cause misclassification with high confidence. However, existing detection methods either require expensive retraining, modify network architecture, or degrade performance on clean inputs. Here we show that adversarial perturbations create immediate, detectable entropy signatures in CNN activations that can be monitored without any model modification. Using parallel entropy monitoring on VGG-16, we demonstrate that adversarial inputs consistently shift activation entropy by 7% in early convolutional layers, enabling 90% detection accuracy with false positives and false negative rates below 20%. The complete separation between clean and adversarial entropy distributions reveals that CNNs inherently encode distribution shifts in their activation patterns. This work establishes that CNN reliability can be assessed through activation entropy alone, enabling practical deployment of self-diagnostic vision systems that detect adversarial inputs in real-time without compromising original model performance.
- Abstract(参考訳): 畳み込みニューラルネットワーク(CNN)は現代のコンピュータビジョンの基礎となり、多様な画像認識タスクにおいて前例のない精度を実現している。
これらのネットワークは、分配データに排他的だが、高い信頼性で誤分類を引き起こすような、敵の摂動の影響を受けにくい入力修正に弱いままである。
しかし、既存の検出方法は、高価なリトレーニング、ネットワークアーキテクチャの変更、クリーンな入力のパフォーマンスの低下を必要とする。
ここでは,CNNアクティベーションにおいて,モデル修正なしに監視できる即時かつ検出可能なエントロピーシグネチャが生じることを示す。
VGG-16の並列エントロピーモニタリングを用いて, 初期畳み込み層において, 対向入力が確実に活性化エントロピーを7%シフトし, 偽陽性と偽陰性率で90%の精度で検出できることを実証した。
クリーンなエントロピー分布と逆のエントロピー分布の完全な分離は、CNNが本質的にそれらの活性化パターンの分布シフトを符号化していることを明らかにする。
この研究は、CNNの信頼性をアクティベーションエントロピーだけで評価できることを確立し、オリジナルのモデル性能を損なうことなく、リアルタイムに敵の入力を検出する自己診断型視覚システムの実践的展開を可能にする。
関連論文リスト
- A Temporal Convolutional Network-based Approach for Network Intrusion Detection [0.0]
本研究では,ネットワークトラフィックデータの依存関係をキャプチャするために,拡張畳み込みを伴う残差ブロックアーキテクチャを特徴とする時間畳み込みネットワーク(TCN)モデルを提案する。
提案したモデルは96.72%の精度と0.0688の損失を達成し、1D CNN、CNN-LSTM、CNN-GRU、CNN-BiLSTM、CNN-GRU-LSTMモデルを上回った。
論文 参考訳(メタデータ) (2024-12-23T10:19:29Z) - Deep Neural Networks Tend To Extrapolate Predictably [51.303814412294514]
ニューラルネットワークの予測は、アウト・オブ・ディストリビューション(OOD)入力に直面した場合、予測不可能で過信される傾向がある。
我々は、入力データがOODになるにつれて、ニューラルネットワークの予測が一定値に向かう傾向があることを観察する。
我々は、OOD入力の存在下でリスクに敏感な意思決定を可能にするために、私たちの洞察を実際に活用する方法を示します。
論文 参考訳(メタデータ) (2023-10-02T03:25:32Z) - Energy-based Out-of-Distribution Detection for Graph Neural Networks [76.0242218180483]
我々は,GNNSafeと呼ばれるグラフ上での学習のための,シンプルで強力で効率的なOOD検出モデルを提案する。
GNNSafeは、最先端技術に対するAUROCの改善を最大17.0%で達成しており、そのような未開発領域では単純だが強力なベースラインとして機能する可能性がある。
論文 参考訳(メタデータ) (2023-02-06T16:38:43Z) - Unfolding Local Growth Rate Estimates for (Almost) Perfect Adversarial
Detection [22.99930028876662]
畳み込みニューラルネットワーク(CNN)は、多くの知覚的タスクにおける最先端のソリューションを定義する。
現在のCNNアプローチは、システムを騙すために特別に作られた入力の敵の摂動に対して脆弱なままである。
本稿では,ネットワークの局所固有次元(LID)と敵攻撃の関係について,最近の知見を生かした,シンプルで軽量な検出器を提案する。
論文 参考訳(メタデータ) (2022-12-13T17:51:32Z) - A Robust Backpropagation-Free Framework for Images [47.97322346441165]
画像データに対するエラーカーネル駆動型アクティベーションアライメントアルゴリズムを提案する。
EKDAAは、ローカルに派生したエラー送信カーネルとエラーマップを導入することで達成される。
結果は、識別不能なアクティベーション機能を利用するEKDAAトレーニングCNNに対して提示される。
論文 参考訳(メタデータ) (2022-06-03T21:14:10Z) - DAAIN: Detection of Anomalous and Adversarial Input using Normalizing
Flows [52.31831255787147]
我々は、アウト・オブ・ディストリビューション(OOD)インプットと敵攻撃(AA)を検出する新しい手法であるDAINを導入する。
本手法は,ニューラルネットワークの内部動作を監視し,活性化分布の密度推定器を学習する。
当社のモデルは,特別なアクセラレータを必要とせずに,効率的な計算とデプロイが可能な単一のGPUでトレーニングすることが可能です。
論文 参考訳(メタデータ) (2021-05-30T22:07:13Z) - Improving Uncertainty Calibration via Prior Augmented Data [56.88185136509654]
ニューラルネットワークは、普遍関数近似器として機能することで、複雑なデータ分布から学習することに成功した。
彼らはしばしば予測に自信過剰であり、不正確で誤った確率的予測に繋がる。
本稿では,モデルが不当に過信である特徴空間の領域を探索し,それらの予測のエントロピーをラベルの以前の分布に対して条件的に高める手法を提案する。
論文 参考訳(メタデータ) (2021-02-22T07:02:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。