論文の概要: Strengthening the Internal Adversarial Robustness in Lifted Neural Networks
- arxiv url: http://arxiv.org/abs/2503.07818v1
- Date: Mon, 10 Mar 2025 20:00:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-12 15:42:04.962621
- Title: Strengthening the Internal Adversarial Robustness in Lifted Neural Networks
- Title(参考訳): リフテッドニューラルネットワークにおける内部対向ロバスト性強化
- Authors: Christopher Zach,
- Abstract要約: まず,トレーニング損失を単に修正するだけで,この枠組みにおける敵の堅牢性をさらに強化することができるかを検討する。
2番目のステップでは、いくつかの残りの制限を修正し、ターゲットと非ターゲットの敵の摂動を組み合わせた、リフトされたニューラルネットワークの新たなトレーニング損失に到達します。
- 参考スコア(独自算出の注目度): 9.781171732431169
- License:
- Abstract: Lifted neural networks (i.e. neural architectures explicitly optimizing over respective network potentials to determine the neural activities) can be combined with a type of adversarial training to gain robustness for internal as well as input layers, in addition to improved generalization performance. In this work we first investigate how adversarial robustness in this framework can be further strengthened by solely modifying the training loss. In a second step we fix some remaining limitations and arrive at a novel training loss for lifted neural networks, that combines targeted and untargeted adversarial perturbations.
- Abstract(参考訳): リフテッドニューラルネットワーク(すなわち、神経活動を決定するために各ネットワーク電位を明示的に最適化するニューラルネットワーク)は、一般化性能の向上に加えて、内部および入力層に対して堅牢性を得るための一種の敵トレーニングと組み合わせることができる。
本研究は,本フレームワークにおいて,トレーニング損失を単に修正するだけで,逆方向の堅牢性をさらに強化できるかどうかを,まず検討する。
2番目のステップでは、いくつかの残りの制限を修正し、ターゲットと非ターゲットの敵の摂動を組み合わせた、リフトされたニューラルネットワークの新たなトレーニング損失に到達します。
関連論文リスト
- Training Verifiably Robust Agents Using Set-Based Reinforcement Learning [8.217552831952]
我々は、摂動入力の集合全体を利用してニューラルネットワークを訓練し、最悪の場合の報酬を最大化する。
得られた薬剤は、関連する作業によって得られるエージェントよりも確実に堅牢であり、安全クリティカルな環境に適用できる。
論文 参考訳(メタデータ) (2024-08-17T06:26:17Z) - Compositional Curvature Bounds for Deep Neural Networks [7.373617024876726]
安全クリティカルなアプリケーションにおけるニューラルネットワークの普及を脅かす重要な課題は、敵の攻撃に対する脆弱性である。
本研究では, 連続的に微分可能な深層ニューラルネットワークの2次挙動について検討し, 対向摂動に対する堅牢性に着目した。
ニューラルネットワークの第2微分の証明可能な上界を解析的に計算する新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-06-07T17:50:15Z) - Quantum-Inspired Analysis of Neural Network Vulnerabilities: The Role of
Conjugate Variables in System Attacks [54.565579874913816]
ニューラルネットワークは、敵の攻撃として現れる小さな非ランダムな摂動に固有の脆弱性を示す。
この機構と量子物理学の不確実性原理の間に数学的に一致し、予想外の学際性に光を当てる。
論文 参考訳(メタデータ) (2024-02-16T02:11:27Z) - Towards Improving Robustness Against Common Corruptions using Mixture of
Class Specific Experts [10.27974860479791]
本稿では,クラス特化エキスパートアーキテクチャの混合として知られる新しいパラダイムを紹介する。
提案したアーキテクチャは、一般的なニューラルネットワーク構造に関連する脆弱性を軽減することを目的としている。
論文 参考訳(メタデータ) (2023-11-16T20:09:47Z) - Learning Dynamics and Generalization in Reinforcement Learning [59.530058000689884]
時間差学習は, エージェントが訓練の初期段階において, 値関数の非平滑成分を適合させるのに役立つことを理論的に示す。
本研究では,高密度報酬タスクの時間差アルゴリズムを用いて学習したニューラルネットワークが,ランダムなネットワークや政策手法で学習した勾配ネットワークよりも,状態間の一般化が弱いことを示す。
論文 参考訳(メタデータ) (2022-06-05T08:49:16Z) - Defensive Tensorization [113.96183766922393]
本稿では,ネットワークの遅延高次分解を利用した対角防御手法であるテンソル防御手法を提案する。
我々は,標準画像分類ベンチマークにおけるアプローチの有効性を実証的に実証した。
我々は,音声タスクとバイナリネットワークを考慮し,ドメイン間のアプローチと低精度アーキテクチャの汎用性を検証した。
論文 参考訳(メタデータ) (2021-10-26T17:00:16Z) - Exploring Architectural Ingredients of Adversarially Robust Deep Neural
Networks [98.21130211336964]
ディープニューラルネットワーク(DNN)は敵の攻撃に弱いことが知られている。
本稿では,ネットワーク幅と深さがDNNの強靭性に及ぼす影響について検討する。
論文 参考訳(メタデータ) (2021-10-07T23:13:33Z) - ASAT: Adaptively Scaled Adversarial Training in Time Series [21.65050910881857]
金融分野を例に挙げて,時系列分析における対戦訓練の導入に向けて第一歩を踏み出した。
時系列解析において,異なる時間スロットにおけるデータを時間依存の重み付きで扱うことにより,適応的スケールの対位訓練(ASAT)を提案する。
実験の結果,提案したASATはニューラルネットワークの精度と対角的堅牢性の両方を向上できることがわかった。
論文 参考訳(メタデータ) (2021-08-20T03:13:34Z) - Clusterability in Neural Networks [9.190168301432811]
トレーニングされたニューラルネットワークは、通常、ランダムなネットワークよりもクラスタリング可能であり、しばしば、同じ重みの分布を持つランダムなネットワークに対してクラスタリング可能である。
また、ニューラルネットワークトレーニングにおけるクラスタビリティを促進する新しい手法を示し、マルチ層パーセプトロンでは、精度をほとんど低下させることなく、よりクラスタブルなネットワークにつながることを発見した。
論文 参考訳(メタデータ) (2021-03-04T23:53:53Z) - Feature Purification: How Adversarial Training Performs Robust Deep
Learning [66.05472746340142]
ニューラルネットワークのトレーニングプロセス中に隠れた重みに、特定の小さな密度の混合物が蓄積されることが、敵の例の存在の原因の1つであることを示す。
この原理を説明するために、CIFAR-10データセットの両実験と、ある自然な分類タスクに対して、ランダムな勾配勾配勾配を用いた2層ニューラルネットワークをトレーニングすることを証明する理論的結果を示す。
論文 参考訳(メタデータ) (2020-05-20T16:56:08Z) - Learn2Perturb: an End-to-end Feature Perturbation Learning to Improve
Adversarial Robustness [79.47619798416194]
Learn2Perturbは、ディープニューラルネットワークの対角的堅牢性を改善するために、エンドツーエンドの機能摂動学習アプローチである。
予測最大化にインスパイアされ、ネットワークと雑音パラメータを連続的にトレーニングするために、交互にバックプロパゲーショントレーニングアルゴリズムが導入された。
論文 参考訳(メタデータ) (2020-03-02T18:27:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。