論文の概要: Effective black box adversarial attack with handcrafted kernels
- arxiv url: http://arxiv.org/abs/2303.13887v1
- Date: Fri, 24 Mar 2023 09:54:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-27 15:08:15.400977
- Title: Effective black box adversarial attack with handcrafted kernels
- Title(参考訳): 手作りカーネルによる効果的なブラックボックス対向攻撃
- Authors: Petr Dvo\v{r}\'a\v{c}ek, Petr Hurtik, Petra \v{S}tevuli\'akov\'a
- Abstract要約: ブラックボックス攻撃の敵例を作成するための,新しい,シンプルなフレームワークを提案する。
このアイデアは、手作りの畳み込みカーネルのたった一つの層からなる訓練不可能なモデルで置換モデルをシミュレートすることである。
本研究では,第1層の予測を騙すことで,ネットワーク全体が騙され,逆入力の精度が低下することを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We propose a new, simple framework for crafting adversarial examples for
black box attacks. The idea is to simulate the substitution model with a
non-trainable model compounded of just one layer of handcrafted convolutional
kernels and then train the generator neural network to maximize the distance of
the outputs for the original and generated adversarial image. We show that
fooling the prediction of the first layer causes the whole network to be fooled
and decreases its accuracy on adversarial inputs. Moreover, we do not train the
neural network to obtain the first convolutional layer kernels, but we create
them using the technique of F-transform. Therefore, our method is very time and
resource effective.
- Abstract(参考訳): ブラックボックス攻撃の敵例を作成するための,新しいシンプルなフレームワークを提案する。
そのアイデアは、手作りの畳み込みカーネルのただ1つの層からなる訓練不能なモデルで置換モデルをシミュレートし、生成ニューラルネットワークを訓練して、原画像と生成した逆画像の出力距離を最大化する。
本研究では,第1層の予測を騙すことで,ネットワーク全体が騙され,逆入力の精度が低下することを示す。
さらに、第1の畳み込み層カーネルを得るためのニューラルネットワークのトレーニングは行わないが、f変換技術を用いてニューラルネットワークを作成する。
したがって,本手法は非常に時間と資源効率が高い。
関連論文リスト
- On Neural Network approximation of ideal adversarial attack and
convergence of adversarial training [3.553493344868414]
逆攻撃は通常、入力データとモデルに対する勾配に基づく操作で表現される。
本研究では,さらに計算を行わずに,敵攻撃を訓練可能な関数として表現するという考え方を固める。
論文 参考訳(メタデータ) (2023-07-30T01:04:36Z) - Distributed Adversarial Training to Robustify Deep Neural Networks at
Scale [100.19539096465101]
現在のディープニューラルネットワーク(DNN)は、入力に対する敵の摂動が分類を変更したり操作したりする敵の攻撃に対して脆弱である。
このような攻撃を防御するために、敵の訓練(AT)として知られる効果的なアプローチが、堅牢な訓練を緩和するために示されている。
複数のマシンにまたがって実装された大規模バッチ対逆トレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-13T15:39:43Z) - An alternative approach to train neural networks using monotone
variational inequality [22.320632565424745]
本稿では,モノトーンベクトル場を用いたニューラルネットワークトレーニングの代替手法を提案する。
我々のアプローチは、事前訓練されたニューラルネットワークのより効率的な微調整に利用できる。
論文 参考訳(メタデータ) (2022-02-17T19:24:20Z) - Robust Binary Models by Pruning Randomly-initialized Networks [57.03100916030444]
ランダムな二元ネットワークから敵攻撃に対して頑健なモデルを得る方法を提案する。
ランダムな二元ネットワークを切断することにより、ロバストモデルの構造を学習する。
本手法は, 敵攻撃の有無で, 強力な抽選券仮説を立証する。
論文 参考訳(メタデータ) (2022-02-03T00:05:08Z) - Thundernna: a white box adversarial attack [0.0]
ニューラルネットワークを攻撃するための一階法を開発した。
他の1次攻撃と比較して、我々の手法は成功率が高い。
論文 参考訳(メタデータ) (2021-11-24T07:06:21Z) - Drawing Robust Scratch Tickets: Subnetworks with Inborn Robustness Are
Found within Randomly Initialized Networks [13.863895853997091]
一般的な宝くじ券の仮説とは別として、元の密集ネットワークや特定されたRTTをトレーニングする必要はない。
同一の高密度ネットワークから引き出された疎度比の異なるRTT間の逆転送性について検討した。
本稿では,Random RST Switch (R2S) 技術を提案する。
論文 参考訳(メタデータ) (2021-10-26T22:52:56Z) - Defensive Tensorization [113.96183766922393]
本稿では,ネットワークの遅延高次分解を利用した対角防御手法であるテンソル防御手法を提案する。
我々は,標準画像分類ベンチマークにおけるアプローチの有効性を実証的に実証した。
我々は,音声タスクとバイナリネットワークを考慮し,ドメイン間のアプローチと低精度アーキテクチャの汎用性を検証した。
論文 参考訳(メタデータ) (2021-10-26T17:00:16Z) - Transferable Sparse Adversarial Attack [62.134905824604104]
オーバーフィッティング問題を緩和するジェネレータアーキテクチャを導入し、転送可能なスパース対逆例を効率的に作成する。
提案手法は,他の最適化手法よりも700$times$高速な推論速度を実現する。
論文 参考訳(メタデータ) (2021-05-31T06:44:58Z) - Online Alternate Generator against Adversarial Attacks [144.45529828523408]
ディープラーニングモデルは、実際の画像に準知覚可能なノイズを加えることによって合成される敵の例に非常に敏感である。
対象ネットワークのパラメータをアクセスしたり変更したりする必要のない,ポータブルな防御手法であるオンライン代替ジェネレータを提案する。
提案手法は,入力画像のスクラッチから別の画像をオンライン合成することで,対向雑音を除去・破壊する代わりに機能する。
論文 参考訳(メタデータ) (2020-09-17T07:11:16Z) - Feature Purification: How Adversarial Training Performs Robust Deep
Learning [66.05472746340142]
ニューラルネットワークのトレーニングプロセス中に隠れた重みに、特定の小さな密度の混合物が蓄積されることが、敵の例の存在の原因の1つであることを示す。
この原理を説明するために、CIFAR-10データセットの両実験と、ある自然な分類タスクに対して、ランダムな勾配勾配勾配を用いた2層ニューラルネットワークをトレーニングすることを証明する理論的結果を示す。
論文 参考訳(メタデータ) (2020-05-20T16:56:08Z) - Generative Adversarial Trainer: Defense to Adversarial Perturbations
with GAN [13.561553183983774]
本稿では, 生成的対角ネットワークを用いて, ニューラルネットワークを敵の例に頑健にするための新しい手法を提案する。
ジェネレータネットワークは、各画像の勾配を用いて分類器ネットワークを騙し易くする対向摂動を生成する。
我々の対戦型トレーニングフレームワークは、Dropoutのような他の正規化手法よりも効率よくオーバーフィッティングを減らし、性能を向上します。
論文 参考訳(メタデータ) (2017-05-09T15:30:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。