論文の概要: Finite Gaussian Neurons: Defending against adversarial attacks by making
neural networks say "I don't know"
- arxiv url: http://arxiv.org/abs/2306.07796v1
- Date: Tue, 13 Jun 2023 14:17:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-14 13:22:04.075001
- Title: Finite Gaussian Neurons: Defending against adversarial attacks by making
neural networks say "I don't know"
- Title(参考訳): Finite Gaussian Neurons: ニューラルネットワークを"知らない"と言うことによって敵の攻撃を防御する
- Authors: Felix Grezes
- Abstract要約: 人工ニューラルネットワークのための新しいニューロンアーキテクチャであるFinite Gaussian Neuron (FGN)を紹介する。
私の仕事は、 - 既存のモデルをFGNアーキテクチャに簡単に変換すること、 - 既存のモデルの振る舞いを実際のデータに保存すること、および、敵対的攻撃に対する抵抗を提供することである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Since 2014, artificial neural networks have been known to be vulnerable to
adversarial attacks, which can fool the network into producing wrong or
nonsensical outputs by making humanly imperceptible alterations to inputs.
While defenses against adversarial attacks have been proposed, they usually
involve retraining a new neural network from scratch, a costly task. In this
work, I introduce the Finite Gaussian Neuron (FGN), a novel neuron architecture
for artificial neural networks. My works aims to: - easily convert existing
models to Finite Gaussian Neuron architecture, - while preserving the existing
model's behavior on real data, - and offering resistance against adversarial
attacks. I show that converted and retrained Finite Gaussian Neural Networks
(FGNN) always have lower confidence (i.e., are not overconfident) in their
predictions over randomized and Fast Gradient Sign Method adversarial images
when compared to classical neural networks, while maintaining high accuracy and
confidence over real MNIST images. To further validate the capacity of Finite
Gaussian Neurons to protect from adversarial attacks, I compare the behavior of
FGNs to that of Bayesian Neural Networks against both randomized and
adversarial images, and show how the behavior of the two architectures differs.
Finally I show some limitations of the FGN models by testing them on the more
complex SPEECHCOMMANDS task, against the stronger Carlini-Wagner and Projected
Gradient Descent adversarial attacks.
- Abstract(参考訳): 2014年以降、人工ニューラルネットワークは敵の攻撃に弱いことが知られており、これはネットワークを騙して間違ったあるいは非感覚的なアウトプットを発生させる可能性がある。
敵の攻撃に対する防御は提案されているが、彼らは通常、新しいニューラルネットワークをゼロから再訓練する。
本稿では,ニューラルネットワークのための新しいニューロンアーキテクチャであるFinite Gaussian Neuron(FGN)を紹介する。
私の研究の目的は、 - 既存のモデルを有限ガウスニューロンアーキテクチャに容易に変換する - 実データ上で既存のモデルの振る舞いを保ちながら - 敵の攻撃に対する抵抗を提供すること。
私は、変換および再訓練された有限ガウス型ニューラルネットワーク(fgnn)は、従来のニューラルネットワークと比較した場合、ランダム化および高速勾配符号法を逆行する予測において、常に低い信頼度(つまり、過信ではない)を持つと同時に、実際のmnist画像よりも高い精度と信頼性を維持していることを示す。
逆行性攻撃から保護する有限ガウスニューロンの能力をさらに検証するために、fgnの挙動と、ランダム化画像と逆行画像の両方に対するベイズニューラルネットワークの挙動を比較し、これら2つのアーキテクチャの動作がどう異なるかを示す。
最後に、より複雑なSPEECHCOMMANDSタスクにおいて、より強力なCarini-WagnerとProjected Gradient Descent攻撃に対してFGNモデルのいくつかの制限を示す。
関連論文リスト
- Benign Overfitting for Two-layer ReLU Convolutional Neural Networks [60.19739010031304]
ラベルフリップ雑音を持つ2層ReLU畳み込みニューラルネットワークを学習するためのアルゴリズム依存型リスクバウンダリを確立する。
緩やかな条件下では、勾配降下によってトレーニングされたニューラルネットワークは、ほぼゼロに近いトレーニング損失とベイズ最適試験リスクを達成できることを示す。
論文 参考訳(メタデータ) (2023-03-07T18:59:38Z) - Adversarial Defense via Neural Oscillation inspired Gradient Masking [0.0]
スパイクニューラルネットワーク(SNN)は、低消費電力、低レイテンシ、生物学的妥当性のために大きな注目を集めている。
本稿では,SNNの安全性を高めるためにバイオインスパイアされた発振機構を組み込んだ新しいニューラルモデルを提案する。
論文 参考訳(メタデータ) (2022-11-04T02:13:19Z) - Spiking neural network for nonlinear regression [68.8204255655161]
スパイクニューラルネットワークは、メモリとエネルギー消費を大幅に削減する可能性を持っている。
彼らは、次世代のニューロモルフィックハードウェアによって活用できる時間的および神経的疎結合を導入する。
スパイキングニューラルネットワークを用いた回帰フレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-06T13:04:45Z) - Adversarial Robustness in Deep Learning: Attacks on Fragile Neurons [0.6899744489931016]
第1畳み込み層の結節投棄を用いて, 深層学習アーキテクチャの脆弱で頑健なニューロンを同定した。
これらのニューロンは,ネットワーク上の敵攻撃の分布と相関する。
論文 参考訳(メタデータ) (2022-01-31T14:34:07Z) - Neural Architecture Dilation for Adversarial Robustness [56.18555072877193]
畳み込みニューラルネットワークの欠点は、敵の攻撃に弱いことである。
本稿では, 良好な精度を有する背骨CNNの対角的堅牢性を向上させることを目的とする。
最小限の計算オーバーヘッドの下では、拡張アーキテクチャはバックボーンCNNの標準的な性能と親和性が期待できる。
論文 参考訳(メタデータ) (2021-08-16T03:58:00Z) - The Compact Support Neural Network [6.47243430672461]
本研究では, 標準ドット生成物に基づくニューロンとRBFニューロンを, 形状パラメータの2つの極端な場合として提示する。
トレーニングされた標準ニューラルネットワークから始めて、必要な値まで形状パラメータを徐々に増加させることで、そのようなニューロンによるニューラルネットワークのトレーニングの難しさを回避する方法を示す。
論文 参考訳(メタデータ) (2021-04-01T06:08:09Z) - BreakingBED -- Breaking Binary and Efficient Deep Neural Networks by
Adversarial Attacks [65.2021953284622]
CNNのホワイトボックス攻撃やブラックボックス攻撃に対する堅牢性について検討する。
結果は、蒸留されたCNN、エージェントベースの最新のprunedモデル、およびバイナライズニューラルネットワークのために示されています。
論文 参考訳(メタデータ) (2021-03-14T20:43:19Z) - Towards Natural Robustness Against Adversarial Examples [35.5696648642793]
ニューラルODEと呼ばれる新しいディープニューラルネットワークの族が、より弱い上限を持つことを示す。
このより弱い上限は、結果の変化量が大きすぎることを防ぐ。
ニューラルネットワークの自然な頑健性は、敵の訓練手法で訓練されたニューラルネットワークの頑健性よりもさらに優れていることを示す。
論文 参考訳(メタデータ) (2020-12-04T08:12:38Z) - Artificial Neural Variability for Deep Learning: On Overfitting, Noise
Memorization, and Catastrophic Forgetting [135.0863818867184]
人工ニューラルネットワーク(ANV)は、ニューラルネットワークが自然のニューラルネットワークからいくつかの利点を学ぶのに役立つ。
ANVは、トレーニングデータと学習モデルの間の相互情報の暗黙の正則化として機能する。
過度にフィットし、ノイズの記憶をラベル付けし、無視できるコストで破滅的な忘れを効果的に軽減することができる。
論文 参考訳(メタデータ) (2020-11-12T06:06:33Z) - Neural Networks with Recurrent Generative Feedback [61.90658210112138]
畳み込みニューラルネットワーク(CNN)でこの設計をインスタンス化する
実験では、標準ベンチマーク上の従来のフィードフォワードCNNに対して、CNN-Fは敵のロバスト性を大幅に改善した。
論文 参考訳(メタデータ) (2020-07-17T19:32:48Z) - Inherent Adversarial Robustness of Deep Spiking Neural Networks: Effects
of Discrete Input Encoding and Non-Linear Activations [9.092733355328251]
スパイキングニューラルネットワーク(SNN)は、敵対的攻撃に対する固有の堅牢性の候補である。
本研究では、勾配に基づく攻撃によるSNNの対向精度が、非スパイク攻撃よりも高いことを示す。
論文 参考訳(メタデータ) (2020-03-23T17:20:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。