論文の概要: Fixed Inter-Neuron Covariability Induces Adversarial Robustness
- arxiv url: http://arxiv.org/abs/2308.03956v1
- Date: Mon, 7 Aug 2023 23:46:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-09 14:33:26.784084
- Title: Fixed Inter-Neuron Covariability Induces Adversarial Robustness
- Title(参考訳): 神経間共変性固定は対向性ロバスト性を引き起こす
- Authors: Muhammad Ahmed Shah and Bhiksha Raj
- Abstract要約: 敵対的摂動の脆弱性はディープニューラルネットワーク(DNN)の重大な欠陥である
我々は,各ニューロンが固定された,しかし学習された共変性パターンに従うように,活性化が互いに一致したニューロンからなる自己持続活性化層を開発した。
SCA層を持つモデルは高い精度を達成し、対向的な摂動データでトレーニングされることなく、最先端のAuto-PGD攻撃に対して多層パーセプトロンモデルよりもはるかに堅牢性を示した。
- 参考スコア(独自算出の注目度): 26.878913741674058
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The vulnerability to adversarial perturbations is a major flaw of Deep Neural
Networks (DNNs) that raises question about their reliability when in real-world
scenarios. On the other hand, human perception, which DNNs are supposed to
emulate, is highly robust to such perturbations, indicating that there may be
certain features of the human perception that make it robust but are not
represented in the current class of DNNs. One such feature is that the activity
of biological neurons is correlated and the structure of this correlation tends
to be rather rigid over long spans of times, even if it hampers performance and
learning. We hypothesize that integrating such constraints on the activations
of a DNN would improve its adversarial robustness, and, to test this
hypothesis, we have developed the Self-Consistent Activation (SCA) layer, which
comprises of neurons whose activations are consistent with each other, as they
conform to a fixed, but learned, covariability pattern. When evaluated on image
and sound recognition tasks, the models with a SCA layer achieved high
accuracy, and exhibited significantly greater robustness than multi-layer
perceptron models to state-of-the-art Auto-PGD adversarial attacks
\textit{without being trained on adversarially perturbed data
- Abstract(参考訳): 敵対的摂動の脆弱性はディープニューラルネットワーク(DNN)の重大な欠陥であり、現実のシナリオにおける彼らの信頼性に関する疑問を引き起こす。
一方、DNNがエミュレートすることが想定される人間の知覚は、そのような摂動に対して非常に頑丈であり、人間の知覚には、それを堅牢にするが、現在のDNNのクラスでは表現されない特定の特徴があることを示している。
そのような特徴の1つは、生物学的ニューロンの活性は相関しており、この相関構造は、たとえ性能と学習を損なうとしても、長い時間にわたってかなり硬い傾向にあるということである。
我々は、DNNの活性化にそのような制約を組み込むことで、その逆の堅牢性が向上するであろうと仮定し、この仮説をテストするために、固定されたが学習された共変性パターンに従って活性化が一致したニューロンからなる自己持続活性化(SCA)層を開発した。
画像および音声認識タスクで評価すると、sca層を持つモデルは高い精度を達成し、最先端のオートpgd攻撃である \textit{without on training on adversarially perturbed dataに対して、多層パーセプトロンモデルよりもかなり頑健であった。
関連論文リスト
- Explainable AI Security: Exploring Robustness of Graph Neural Networks to Adversarial Attacks [14.89001880258583]
グラフニューラルネットワーク(GNN)は非常に成功したが、最近の研究では、GNNは敵の攻撃に弱いことが示されている。
本稿では,グラフデータパターン,モデル固有因子,および敵対例の転送可能性を考慮することで,GNNの対角的ロバスト性について検討する。
この作業は、GNNの脆弱性を照らし、堅牢なGNNを設計するための多くの有望な道を開く。
論文 参考訳(メタデータ) (2024-06-20T01:24:18Z) - Layer-Aware Analysis of Catastrophic Overfitting: Revealing the Pseudo-Robust Shortcut Dependency [61.394997313144394]
カタストロフィックオーバーフィッティング(CO)は単段階逆行訓練(AT)において重要な課題となる
また,CO中において,前層はより感受性が高く,より早く,より歪みが強く,後者層は相対的不感度を示した。
提案手法であるLayer-Aware Adversarial Weight Perturbation (LAP)は,COを効果的に防止し,ロバスト性を高める。
論文 参考訳(メタデータ) (2024-05-25T14:56:30Z) - Adversarial alignment: Breaking the trade-off between the strength of an
attack and its relevance to human perception [10.883174135300418]
敵対的な攻撃は長年、深層学習の「アキレスのヒール」と見なされてきた。
本稿では、ImageNetにおけるDNNの敵攻撃に対する堅牢性がどのように発展し、精度が向上し続けているかを検討する。
論文 参考訳(メタデータ) (2023-06-05T20:26:17Z) - Robust Sensible Adversarial Learning of Deep Neural Networks for Image
Classification [6.594522185216161]
直感的な対人学習を導入し、標準的な自然の正確さと頑健さの追求と相乗効果を実証する。
具体的には、より自然な精度を維持しながら頑健なモデルを学ぶのに有用な、合理的な敵を定義する。
暗黙の損失トランケーションを用いてロバストモデルをトレーニングする,新しい,効率的なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-05-20T22:57:44Z) - Neural Architecture Dilation for Adversarial Robustness [56.18555072877193]
畳み込みニューラルネットワークの欠点は、敵の攻撃に弱いことである。
本稿では, 良好な精度を有する背骨CNNの対角的堅牢性を向上させることを目的とする。
最小限の計算オーバーヘッドの下では、拡張アーキテクチャはバックボーンCNNの標準的な性能と親和性が期待できる。
論文 参考訳(メタデータ) (2021-08-16T03:58:00Z) - Residual Error: a New Performance Measure for Adversarial Robustness [85.0371352689919]
ディープラーニングの広く普及を制限する大きな課題は、敵の攻撃に対する脆弱さである。
本研究は,ディープニューラルネットワークの対角強靭性を評価するための新しい性能尺度である残留誤差の概念を提示する。
画像分類を用いた実験結果から,提案手法の有効性と有効性を示した。
論文 参考訳(メタデータ) (2021-06-18T16:34:23Z) - On the benefits of robust models in modulation recognition [53.391095789289736]
畳み込み層を用いたディープニューラルネットワーク(DNN)は、通信における多くのタスクにおいて最先端である。
画像分類のような他の領域では、DNNは敵の摂動に弱いことが示されている。
最新モデルの堅牢性をテストするための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-27T19:58:06Z) - Non-Singular Adversarial Robustness of Neural Networks [58.731070632586594]
小さな入力摂動に対する過敏性のため、アドリヤルロバスト性はニューラルネットワークにとって新たな課題となっている。
我々は,データ入力とモデル重みの共振レンズを用いて,ニューラルネットワークの非特異な対角性の概念を定式化する。
論文 参考訳(メタデータ) (2021-02-23T20:59:30Z) - And/or trade-off in artificial neurons: impact on adversarial robustness [91.3755431537592]
ネットワークに十分な数のOR様ニューロンが存在すると、分類の脆さと敵の攻撃に対する脆弱性が増加する。
そこで我々は,AND様ニューロンを定義し,ネットワーク内での割合を増大させる対策を提案する。
MNISTデータセットによる実験結果から,本手法はさらなる探索の方向として有望であることが示唆された。
論文 参考訳(メタデータ) (2021-02-15T08:19:05Z) - Recent Advances in Understanding Adversarial Robustness of Deep Neural
Networks [15.217367754000913]
敵の例に抵抗する高い堅牢性を持つモデルを得ることがますます重要である。
我々は、敵の攻撃と堅牢性について、予備的な定義を与える。
我々は、頻繁に使用されるベンチマークについて研究し、理論的に証明された敵の堅牢性の境界について言及する。
論文 参考訳(メタデータ) (2020-11-03T07:42:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。