論文の概要: On Neural Network approximation of ideal adversarial attack and
convergence of adversarial training
- arxiv url: http://arxiv.org/abs/2307.16099v1
- Date: Sun, 30 Jul 2023 01:04:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-01 17:47:51.367871
- Title: On Neural Network approximation of ideal adversarial attack and
convergence of adversarial training
- Title(参考訳): 理想的な対向攻撃のニューラルネットワーク近似と対向訓練の収束について
- Authors: Rajdeep Haldar and Qifan Song
- Abstract要約: 逆攻撃は通常、入力データとモデルに対する勾配に基づく操作で表現される。
本研究では,さらに計算を行わずに,敵攻撃を訓練可能な関数として表現するという考え方を固める。
- 参考スコア(独自算出の注目度): 3.553493344868414
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Adversarial attacks are usually expressed in terms of a gradient-based
operation on the input data and model, this results in heavy computations every
time an attack is generated. In this work, we solidify the idea of representing
adversarial attacks as a trainable function, without further gradient
computation. We first motivate that the theoretical best attacks, under proper
conditions, can be represented as smooth piece-wise functions (piece-wise
H\"older functions). Then we obtain an approximation result of such functions
by a neural network. Subsequently, we emulate the ideal attack process by a
neural network and reduce the adversarial training to a mathematical game
between an attack network and a training model (a defense network). We also
obtain convergence rates of adversarial loss in terms of the sample size $n$
for adversarial training in such a setting.
- Abstract(参考訳): 逆アタックは通常、入力データとモデルに対する勾配に基づく操作で表現されるため、攻撃が発生するたびに重い計算が行われる。
本研究では,逆攻撃を訓練可能な関数として表現するアイデアを,さらに勾配計算をすることなく確立する。
まず,理論上の最善の攻撃は,適切な条件下では,滑らかな部分的関数(ピースワイズh\"older関数)として表現できることを動機づける。
そして,そのような関数の近似結果をニューラルネットワークによって求める。
次に、ニューラルネットワークによる理想的な攻撃プロセスをエミュレートし、攻撃ネットワークとトレーニングモデル(防御ネットワーク)との間の数学的ゲームへの敵意トレーニングを低減させる。
また,このような条件下での対人訓練において,サンプルサイズ$n$の対人損失の収束率も得られる。
関連論文リスト
- Fast Propagation is Better: Accelerating Single-Step Adversarial
Training via Sampling Subnetworks [69.54774045493227]
逆行訓練の欠点は、逆行例の生成によって引き起こされる計算オーバーヘッドである。
モデルの内部構造ブロックを利用して効率を向上させることを提案する。
従来の手法と比較して,本手法はトレーニングコストを削減できるだけでなく,モデルの堅牢性も向上する。
論文 参考訳(メタデータ) (2023-10-24T01:36:20Z) - Distributed Adversarial Training to Robustify Deep Neural Networks at
Scale [100.19539096465101]
現在のディープニューラルネットワーク(DNN)は、入力に対する敵の摂動が分類を変更したり操作したりする敵の攻撃に対して脆弱である。
このような攻撃を防御するために、敵の訓練(AT)として知られる効果的なアプローチが、堅牢な訓練を緩和するために示されている。
複数のマシンにまたがって実装された大規模バッチ対逆トレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-13T15:39:43Z) - Thundernna: a white box adversarial attack [0.0]
ニューラルネットワークを攻撃するための一階法を開発した。
他の1次攻撃と比較して、我々の手法は成功率が高い。
論文 参考訳(メタデータ) (2021-11-24T07:06:21Z) - Defensive Tensorization [113.96183766922393]
本稿では,ネットワークの遅延高次分解を利用した対角防御手法であるテンソル防御手法を提案する。
我々は,標準画像分類ベンチマークにおけるアプローチの有効性を実証的に実証した。
我々は,音声タスクとバイナリネットワークを考慮し,ドメイン間のアプローチと低精度アーキテクチャの汎用性を検証した。
論文 参考訳(メタデータ) (2021-10-26T17:00:16Z) - FooBaR: Fault Fooling Backdoor Attack on Neural Network Training [5.639451539396458]
ニューラルネットワークのトレーニングフェーズ中に障害を注入することで,新たな攻撃パラダイムを探索する。
このような攻撃は、トレーニングフェーズの障害攻撃がネットワークにバックドアを注入し、攻撃者が不正な入力を生成できるようにするような、不正なバックドアと呼ばれる。
論文 参考訳(メタデータ) (2021-09-23T09:43:19Z) - Adaptive Feature Alignment for Adversarial Training [56.17654691470554]
CNNは通常、敵攻撃に対して脆弱であり、セキュリティに敏感なアプリケーションに脅威をもたらす。
任意の攻撃強度の特徴を生成するための適応的特徴アライメント(AFA)を提案する。
本手法は任意の攻撃強度の特徴を自動的に整列するように訓練されている。
論文 参考訳(メタデータ) (2021-05-31T17:01:05Z) - REGroup: Rank-aggregating Ensemble of Generative Classifiers for Robust
Predictions [6.0162772063289784]
敵の訓練やランダムな入力変換を採用する防衛戦略は、合理的なパフォーマンスを達成するために、モデルの再訓練や微調整を必要とするのが普通である。
中間層の神経応答を統計的に特徴付けることにより, 生成型分類器を学習し, トレーニングサンプルをクリーンにすることができる。
提案手法は, クリーントレーニングデータのサブセットと事前学習モデルを用いており, ネットワークアーキテクチャや敵攻撃生成手法に非依存である。
論文 参考訳(メタデータ) (2020-06-18T17:07:19Z) - Feature Purification: How Adversarial Training Performs Robust Deep
Learning [66.05472746340142]
ニューラルネットワークのトレーニングプロセス中に隠れた重みに、特定の小さな密度の混合物が蓄積されることが、敵の例の存在の原因の1つであることを示す。
この原理を説明するために、CIFAR-10データセットの両実験と、ある自然な分類タスクに対して、ランダムな勾配勾配勾配を用いた2層ニューラルネットワークをトレーニングすることを証明する理論的結果を示す。
論文 参考訳(メタデータ) (2020-05-20T16:56:08Z) - Depth-2 Neural Networks Under a Data-Poisoning Attack [2.105564340986074]
本研究では,浅層ニューラルネットワークをレグレッション・セットアップでトレーニングしながら,データ中毒攻撃に対する防御の可能性について検討する。
本研究では,深度2有限幅ニューラルネットワークのクラスに対して教師あり学習を行うことに焦点をあてる。
論文 参考訳(メタデータ) (2020-05-04T17:56:15Z) - Towards Achieving Adversarial Robustness by Enforcing Feature
Consistency Across Bit Planes [51.31334977346847]
我々は、高ビット平面の情報に基づいて粗い印象を形成するためにネットワークを訓練し、低ビット平面を用いて予測を洗練させる。
異なる量子化画像間で学習した表現に一貫性を付与することにより、ネットワークの対角的ロバスト性が大幅に向上することを示した。
論文 参考訳(メタデータ) (2020-04-01T09:31:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。