論文の概要: Dynamically Computing Adversarial Perturbations for Recurrent Neural
Networks
- arxiv url: http://arxiv.org/abs/2009.02874v1
- Date: Mon, 7 Sep 2020 03:37:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-21 02:57:39.428192
- Title: Dynamically Computing Adversarial Perturbations for Recurrent Neural
Networks
- Title(参考訳): リカレントニューラルネットワークのための動的逆摂動計算
- Authors: Shankar A. Deka and Du\v{s}an M. Stipanovi\'c and Claire J. Tomlin
- Abstract要約: 畳み込みと繰り返しのニューラルネットワークは、分類タスクにおける最先端のパフォーマンスを達成するために広く利用されている。
また、これらのネットワークは、入力に対して慎重に加法摂動を作れば、相対的に容易に操作可能であることも指摘されている。
我々は,このような事例に対して,敵例の存在とネットワークのロバスト性マージンを理論的に保証する。
- 参考スコア(独自算出の注目度): 33.61168219427157
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Convolutional and recurrent neural networks have been widely employed to
achieve state-of-the-art performance on classification tasks. However, it has
also been noted that these networks can be manipulated adversarially with
relative ease, by carefully crafted additive perturbations to the input. Though
several experimentally established prior works exist on crafting and defending
against attacks, it is also desirable to have theoretical guarantees on the
existence of adversarial examples and robustness margins of the network to such
examples. We provide both in this paper. We focus specifically on recurrent
architectures and draw inspiration from dynamical systems theory to naturally
cast this as a control problem, allowing us to dynamically compute adversarial
perturbations at each timestep of the input sequence, thus resembling a
feedback controller. Illustrative examples are provided to supplement the
theoretical discussions.
- Abstract(参考訳): 畳み込みと繰り返しのニューラルネットワークは、分類タスクにおける最先端のパフォーマンスを達成するために広く利用されている。
しかし、これらのネットワークは入力に対して慎重に加法摂動を作れば相対的に容易に操作可能であることも指摘されている。
いくつかの実験的に確立された先行研究は、攻撃に対する工作と防御について存在するが、攻撃例の存在とネットワークの堅牢性マージンに関する理論的保証を持つことも望ましい。
本論文では両方について述べる。
我々は、特にリカレントアーキテクチャに注目し、動的システム理論からインスピレーションを得て、これを制御問題として自然にキャストし、入力シーケンスの各時間ステップで逆摂動を動的に計算し、フィードバックコントローラに類似させる。
理論的議論を補うための例を示す。
関連論文リスト
- Quantum-Inspired Analysis of Neural Network Vulnerabilities: The Role of
Conjugate Variables in System Attacks [54.565579874913816]
ニューラルネットワークは、敵の攻撃として現れる小さな非ランダムな摂動に固有の脆弱性を示す。
この機構と量子物理学の不確実性原理の間に数学的に一致し、予想外の学際性に光を当てる。
論文 参考訳(メタデータ) (2024-02-16T02:11:27Z) - A Survey on Transferability of Adversarial Examples across Deep Neural Networks [53.04734042366312]
逆の例では、機械学習モデルを操作して誤った予測を行うことができます。
敵の例の転送可能性により、ターゲットモデルの詳細な知識を回避できるブラックボックス攻撃が可能となる。
本研究は, 対角移動可能性の展望を考察した。
論文 参考訳(メタデータ) (2023-10-26T17:45:26Z) - Leveraging Low-Rank and Sparse Recurrent Connectivity for Robust
Closed-Loop Control [63.310780486820796]
繰り返し接続のパラメータ化が閉ループ設定のロバスト性にどのように影響するかを示す。
パラメータが少ないクローズドフォーム連続時間ニューラルネットワーク(CfCs)は、フルランクで完全に接続されたニューラルネットワークよりも優れています。
論文 参考訳(メタデータ) (2023-10-05T21:44:18Z) - On the Computational Entanglement of Distant Features in Adversarial Machine Learning [8.87656044562629]
計算的絡み合い」の概念を導入する
計算的絡み合いにより、未確認のテストサンプルであっても、ランダムノイズを適合させることで、ネットワークはゼロ損失を達成することができる。
本稿では, 計算エンタングルメントの新たな応用法として, 計算エンタングルメントを, 非ローバストな最悪ケースのサンプル・インプットの変換に適用する。
論文 参考訳(メタデータ) (2023-09-27T14:09:15Z) - Generalization and Estimation Error Bounds for Model-based Neural
Networks [78.88759757988761]
スパースリカバリのためのモデルベースネットワークの一般化能力は、通常のReLUネットワークよりも優れていることを示す。
我々は,高一般化を保証したモデルベースネットワークの構築を可能にする実用的な設計規則を導出する。
論文 参考訳(メタデータ) (2023-04-19T16:39:44Z) - Adversarial Attack via Dual-Stage Network Erosion [7.28871533402894]
ディープニューラルネットワークは敵の例に弱いため、微妙な摂動を加えることでディープモデルを騙すことができる。
本稿では, 既存モデルに2段階の特徴レベル摂動を適用し, 多様なモデルの集合を暗黙的に生成する手法を提案する。
我々は、非残留ネットワークと残留ネットワークの両方で包括的な実験を行い、最先端の計算手法と同様の計算コストで、より伝達可能な逆の例を得る。
論文 参考訳(メタデータ) (2022-01-01T02:38:09Z) - Robustness against Adversarial Attacks in Neural Networks using
Incremental Dissipativity [3.8673567847548114]
逆例はニューラルネットワークの分類性能を低下させるのが容易である。
本研究は,ニューラルネットワークに対する漸進的拡散性に基づくロバスト性証明を提案する。
論文 参考訳(メタデータ) (2021-11-25T04:42:57Z) - Latent Network Embedding via Adversarial Auto-encoders [15.656374849760734]
本稿では,逆グラフ自動エンコーダに基づく潜在ネットワーク埋め込みモデルを提案する。
この枠組みの下では、潜伏構造を発見する問題は、部分的な観測から潜伏関係を推測するものとして定式化されている。
論文 参考訳(メタデータ) (2021-09-30T16:49:46Z) - Formalizing Generalization and Robustness of Neural Networks to Weight
Perturbations [58.731070632586594]
非負のモノトーンアクティベーション機能を備えたフィードフォワードニューラルネットワークの重量変動に対する最初の形式解析を提供します。
また,重みの摂動に対して一般化し頑健なニューラルネットワークを訓練するための新しい理論駆動損失関数を設計した。
論文 参考訳(メタデータ) (2021-03-03T06:17:03Z) - Developing Constrained Neural Units Over Time [81.19349325749037]
本稿では,既存のアプローチと異なるニューラルネットワークの定義方法に焦点をあてる。
ニューラルネットワークの構造は、データとの相互作用にも拡張される制約の特別なクラスによって定義される。
提案した理論は時間領域にキャストされ, データを順序づけられた方法でネットワークに提示する。
論文 参考訳(メタデータ) (2020-09-01T09:07:25Z) - Improving Adversarial Robustness by Enforcing Local and Global
Compactness [19.8818435601131]
敵の訓練は、広範囲の攻撃に一貫して抵抗する最も成功した方法である。
本稿では,局所的・言語的コンパクト性とクラスタリングの仮定を強制する分散分散化ネットワークを提案する。
実験の結果,提案するコンポーネントによる対人訓練の強化は,ネットワークの堅牢性をさらに向上させる可能性が示唆された。
論文 参考訳(メタデータ) (2020-07-10T00:43:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。