論文の概要: NCCR: to Evaluate the Robustness of Neural Networks and Adversarial Examples
- arxiv url: http://arxiv.org/abs/2507.21483v1
- Date: Tue, 29 Jul 2025 03:58:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-30 17:08:55.650473
- Title: NCCR: to Evaluate the Robustness of Neural Networks and Adversarial Examples
- Title(参考訳): ニューラルネットワークのロバスト性評価のためのNCCRとその適用例
- Authors: Pu Shi,
- Abstract要約: 本研究では, ニューラルネットワーク被覆変化率 (NCCR) と呼ばれる, 攻撃に対する深層学習モデルの能力を測定する指標を提案する。
NCCRは入力が摂動されたとき、特定の選択されたニューロンの出力の変化を監視する。
画像認識実験と話者認識モデルの結果から,ニューラルネットワークやその入力のロバスト性を評価するための指標が得られた。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural networks have received a lot of attention recently, and related security issues have come with it. Many studies have shown that neural networks are vulnerable to adversarial examples that have been artificially perturbed with modification, which is too small to be distinguishable by human perception. Different attacks and defenses have been proposed to solve these problems, but there is little research on evaluating the robustness of neural networks and their inputs. In this work, we propose a metric called the neuron cover change rate (NCCR) to measure the ability of deep learning models to resist attacks and the stability of adversarial examples. NCCR monitors alterations in the output of specifically chosen neurons when the input is perturbed, and networks with a smaller degree of variation are considered to be more robust. The results of the experiment on image recognition and the speaker recognition model show that our metrics can provide a good assessment of the robustness of neural networks or their inputs. It can also be used to detect whether an input is adversarial or not, as adversarial examples are always less robust.
- Abstract(参考訳): ニューラルネットワークは最近多くの注目を集めており、関連するセキュリティ問題も発生している。
多くの研究は、ニューラルネットワークが人体で知覚されるには小さすぎる修正によって人工的に摂動された敵の例に弱いことを示している。
これらの問題を解決するために異なる攻撃と防御が提案されているが、ニューラルネットワークとその入力の堅牢性を評価する研究はほとんどない。
本研究では, ニューラルネットワーク被覆変化率(NCCR)と呼ばれる, 攻撃に対する深層学習モデルの有効性と, 敵例の安定性を測定する指標を提案する。
NCCRは入力が摂動されたとき、特定の選択されたニューロンの出力の変化を監視し、変化の度合いの低いネットワークはより堅牢であると考えられている。
画像認識実験と話者認識モデルの結果から,ニューラルネットワークやその入力のロバスト性を評価するための指標が得られた。
逆の例が常に堅牢でないため、入力が逆であるかどうかを検出するためにも使用できる。
関連論文リスト
- Unfolding Local Growth Rate Estimates for (Almost) Perfect Adversarial
Detection [22.99930028876662]
畳み込みニューラルネットワーク(CNN)は、多くの知覚的タスクにおける最先端のソリューションを定義する。
現在のCNNアプローチは、システムを騙すために特別に作られた入力の敵の摂動に対して脆弱なままである。
本稿では,ネットワークの局所固有次元(LID)と敵攻撃の関係について,最近の知見を生かした,シンプルで軽量な検出器を提案する。
論文 参考訳(メタデータ) (2022-12-13T17:51:32Z) - Searching for the Essence of Adversarial Perturbations [73.96215665913797]
本稿では,ニューラルネットワークの誤予測の原因となる,人間の認識可能な情報を含む対人摂動について述べる。
この人間の認識可能な情報の概念は、敵の摂動に関連する重要な特徴を説明できる。
論文 参考訳(メタデータ) (2022-05-30T18:04:57Z) - Pruning in the Face of Adversaries [0.0]
ニューラルネットワークのプルーニングがL-0,L-2,L-infinity攻撃に対する対向的ロバスト性に及ぼす影響を評価する。
その結果,ニューラルネットワークのプルーニングと対向ロバスト性は相互に排他的ではないことが確認された。
分析を敵のシナリオに付加的な仮定を取り入れた状況にまで拡張し、状況によって異なる戦略が最適であることを示す。
論文 参考訳(メタデータ) (2021-08-19T09:06:16Z) - Residual Error: a New Performance Measure for Adversarial Robustness [85.0371352689919]
ディープラーニングの広く普及を制限する大きな課題は、敵の攻撃に対する脆弱さである。
本研究は,ディープニューラルネットワークの対角強靭性を評価するための新しい性能尺度である残留誤差の概念を提示する。
画像分類を用いた実験結果から,提案手法の有効性と有効性を示した。
論文 参考訳(メタデータ) (2021-06-18T16:34:23Z) - Adversarial Examples Detection with Bayesian Neural Network [57.185482121807716]
本稿では,ランダムな成分が予測器の滑らかさを向上できるという観測によって動機づけられた敵の例を検出するための新しい枠組みを提案する。
本稿では,BATer を略した新しいベイズ対向型サンプル検出器を提案し,対向型サンプル検出の性能を向上させる。
論文 参考訳(メタデータ) (2021-05-18T15:51:24Z) - The Compact Support Neural Network [6.47243430672461]
本研究では, 標準ドット生成物に基づくニューロンとRBFニューロンを, 形状パラメータの2つの極端な場合として提示する。
トレーニングされた標準ニューラルネットワークから始めて、必要な値まで形状パラメータを徐々に増加させることで、そのようなニューロンによるニューラルネットワークのトレーニングの難しさを回避する方法を示す。
論文 参考訳(メタデータ) (2021-04-01T06:08:09Z) - Non-Singular Adversarial Robustness of Neural Networks [58.731070632586594]
小さな入力摂動に対する過敏性のため、アドリヤルロバスト性はニューラルネットワークにとって新たな課題となっている。
我々は,データ入力とモデル重みの共振レンズを用いて,ニューラルネットワークの非特異な対角性の概念を定式化する。
論文 参考訳(メタデータ) (2021-02-23T20:59:30Z) - And/or trade-off in artificial neurons: impact on adversarial robustness [91.3755431537592]
ネットワークに十分な数のOR様ニューロンが存在すると、分類の脆さと敵の攻撃に対する脆弱性が増加する。
そこで我々は,AND様ニューロンを定義し,ネットワーク内での割合を増大させる対策を提案する。
MNISTデータセットによる実験結果から,本手法はさらなる探索の方向として有望であることが示唆された。
論文 参考訳(メタデータ) (2021-02-15T08:19:05Z) - Towards Natural Robustness Against Adversarial Examples [35.5696648642793]
ニューラルODEと呼ばれる新しいディープニューラルネットワークの族が、より弱い上限を持つことを示す。
このより弱い上限は、結果の変化量が大きすぎることを防ぐ。
ニューラルネットワークの自然な頑健性は、敵の訓練手法で訓練されたニューラルネットワークの頑健性よりもさらに優れていることを示す。
論文 参考訳(メタデータ) (2020-12-04T08:12:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。