論文の概要: A Deep Marginal-Contrastive Defense against Adversarial Attacks on 1D
Models
- arxiv url: http://arxiv.org/abs/2012.04734v1
- Date: Tue, 8 Dec 2020 20:51:43 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-17 00:03:32.558143
- Title: A Deep Marginal-Contrastive Defense against Adversarial Attacks on 1D
Models
- Title(参考訳): 1次元モデルにおける敵攻撃に対する深層対物防御
- Authors: Mohammed Hassanin, Nour Moustafa, Murat Tahtali
- Abstract要約: ディープラーニングアルゴリズムは最近、脆弱性のために攻撃者がターゲットとしている。
非連続的深層モデルは、いまだに敵対的な攻撃に対して頑健ではない。
本稿では,特徴を特定のマージン下に置くことによって予測を容易にする新しい目的/損失関数を提案する。
- 参考スコア(独自算出の注目度): 3.9962751777898955
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning algorithms have been recently targeted by attackers due to
their vulnerability. Several research studies have been conducted to address
this issue and build more robust deep learning models. Non-continuous deep
models are still not robust against adversarial, where most of the recent
studies have focused on developing attack techniques to evade the learning
process of the models. One of the main reasons behind the vulnerability of such
models is that a learning classifier is unable to slightly predict perturbed
samples. To address this issue, we propose a novel objective/loss function, the
so-called marginal contrastive, which enforces the features to lie under a
specified margin to facilitate their prediction using deep convolutional
networks (i.e., Char-CNN). Extensive experiments have been conducted on
continuous cases (e.g., UNSW NB15 dataset) and discrete ones (i.e,
eight-large-scale datasets [32]) to prove the effectiveness of the proposed
method. The results revealed that the regularization of the learning process
based on the proposed loss function can improve the performance of Char-CNN.
- Abstract(参考訳): ディープラーニングアルゴリズムは最近、脆弱性のために攻撃者によって標的にされている。
この問題に対処し、より堅牢なディープラーニングモデルを構築するために、いくつかの研究が実施された。
非連続的深層モデルはいまだに敵に対して頑健ではなく、最近の研究はモデルの学習プロセスを避けるための攻撃手法の開発に重点を置いている。
このようなモデルの脆弱性の背後にある主な理由は、学習分類器が摂動サンプルをわずかに予測できないことである。
この問題に対処するために,提案する新たな目的/余分関数,いわゆる辺縁コントラスト関数を提案し,その特徴を特定の辺縁の下に配置して,深層畳み込みネットワーク(Char-CNN)を用いた予測を容易にする。
提案手法の有効性を証明するために,連続事例 (unsw nb15 データセット) と離散事例 (8大規模データセット [32]) について広範な実験を行った。
その結果,提案する損失関数に基づく学習プロセスの正規化により,char-cnnの性能が向上することがわかった。
関連論文リスト
- MOREL: Enhancing Adversarial Robustness through Multi-Objective Representation Learning [1.534667887016089]
ディープニューラルネットワーク(DNN)は、わずかに敵対的な摂動に対して脆弱である。
トレーニング中の強力な特徴表現学習は、元のモデルの堅牢性を大幅に向上させることができることを示す。
本稿では,多目的特徴表現学習手法であるMORELを提案する。
論文 参考訳(メタデータ) (2024-10-02T16:05:03Z) - A Robust Likelihood Model for Novelty Detection [8.766411351797883]
新規性や異常検出に対する現在のアプローチは、ディープニューラルネットワークに基づいている。
我々は、攻撃に対する防御として、新規性テストの堅牢な可能性を学ぶことを目的とした新しい事前提案を行う。
我々はまた、最先端のノベルティ検出アプローチと、それ以前のものを統合する。
論文 参考訳(メタデータ) (2023-06-06T01:02:31Z) - Re-thinking Data Availablity Attacks Against Deep Neural Networks [53.64624167867274]
本稿では、未学習例の概念を再検討し、既存のロバストな誤り最小化ノイズが不正確な最適化目標であることを示す。
本稿では,計算時間要件の低減による保護性能の向上を図った新しい最適化パラダイムを提案する。
論文 参考訳(メタデータ) (2023-05-18T04:03:51Z) - Adversarial Robustness Assessment of NeuroEvolution Approaches [1.237556184089774]
CIFAR-10画像分類タスクにおける2つのNeuroEvolutionアプローチにより得られたモデルのロバスト性を評価する。
以上の結果から,進化したモデルが反復的手法で攻撃されると,その精度は通常0に低下するか0に近づきます。
これらの技法のいくつかは、元の入力に付加された摂動を悪化させ、頑丈さを損なう可能性がある。
論文 参考訳(メタデータ) (2022-07-12T10:40:19Z) - Improving robustness of jet tagging algorithms with adversarial training [56.79800815519762]
本研究では,フレーバータグ付けアルゴリズムの脆弱性について,敵攻撃による検証を行った。
シミュレーション攻撃の影響を緩和する対人訓練戦略を提案する。
論文 参考訳(メタデータ) (2022-03-25T19:57:19Z) - Learning to Learn Transferable Attack [77.67399621530052]
転送逆行攻撃は非自明なブラックボックス逆行攻撃であり、サロゲートモデル上で敵の摂動を発生させ、そのような摂動を被害者モデルに適用することを目的としている。
本研究では,データとモデル拡張の両方から学習することで,敵の摂動をより一般化する学習可能な攻撃学習法(LLTA)を提案する。
提案手法の有効性を実証し, 現状の手法と比較して, 12.85%のトランスファー攻撃の成功率で検証した。
論文 参考訳(メタデータ) (2021-12-10T07:24:21Z) - Residual Error: a New Performance Measure for Adversarial Robustness [85.0371352689919]
ディープラーニングの広く普及を制限する大きな課題は、敵の攻撃に対する脆弱さである。
本研究は,ディープニューラルネットワークの対角強靭性を評価するための新しい性能尺度である残留誤差の概念を提示する。
画像分類を用いた実験結果から,提案手法の有効性と有効性を示した。
論文 参考訳(メタデータ) (2021-06-18T16:34:23Z) - Exploiting epistemic uncertainty of the deep learning models to generate
adversarial samples [0.7734726150561088]
敵機械学習」は、新たな敵攻撃を考案し、より堅牢なアーキテクチャでこれらの攻撃を防御することを目的としている。
本研究では,モンテカルロ・ドロップアウトサンプリングから得られた定量的な疫学的不確実性について,敵対的攻撃目的に利用することを検討した。
提案手法により,攻撃成功率は82.59%から85.40%,82.86%から89.92%,88.06%から90.03%に向上した。
論文 参考訳(メタデータ) (2021-02-08T11:59:27Z) - Reparameterized Variational Divergence Minimization for Stable Imitation [57.06909373038396]
確率的発散の選択における変動が、より高性能なILOアルゴリズムをもたらす可能性について検討する。
本稿では,提案する$f$-divergence最小化フレームワークの課題を軽減するために,逆模倣学習のための再パラメータ化手法を提案する。
経験的に、我々の設計選択は、ベースラインアプローチより優れ、低次元連続制御タスクにおける専門家のパフォーマンスとより密に適合するIOOアルゴリズムを許容することを示した。
論文 参考訳(メタデータ) (2020-06-18T19:04:09Z) - Adversarial Distributional Training for Robust Deep Learning [53.300984501078126]
逆行訓練(AT)は、逆行例によるトレーニングデータを増やすことにより、モデルロバスト性を改善する最も効果的な手法の一つである。
既存のAT手法の多くは、敵の例を作らせるために特定の攻撃を採用しており、他の目に見えない攻撃に対する信頼性の低い堅牢性につながっている。
本稿では,ロバストモデル学習のための新しいフレームワークであるADTを紹介する。
論文 参考訳(メタデータ) (2020-02-14T12:36:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。