論文の概要: Defense against adversarial attacks on deep convolutional neural
networks through nonlocal denoising
- arxiv url: http://arxiv.org/abs/2206.12685v1
- Date: Sat, 25 Jun 2022 16:11:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-03 04:40:22.591012
- Title: Defense against adversarial attacks on deep convolutional neural
networks through nonlocal denoising
- Title(参考訳): 非局所発振による深層畳み込みニューラルネットワークの敵対的攻撃に対する防御
- Authors: Sandhya Aneja and Nagender Aneja and Pg Emeroylariffion Abas and Abdul
Ghani Naim
- Abstract要約: 異なる輝度値を持つ非局所復調法は、逆例を生成するために用いられてきた。
摂動下では、この手法はMNISTデータセットの9.3%の絶対精度の向上をもたらした。
我々は,移動学習が逆機械学習に不利であることを示してきた。
- 参考スコア(独自算出の注目度): 1.3484794751207887
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite substantial advances in network architecture performance, the
susceptibility of adversarial attacks makes deep learning challenging to
implement in safety-critical applications. This paper proposes a data-centric
approach to addressing this problem. A nonlocal denoising method with different
luminance values has been used to generate adversarial examples from the
Modified National Institute of Standards and Technology database (MNIST) and
Canadian Institute for Advanced Research (CIFAR-10) data sets. Under
perturbation, the method provided absolute accuracy improvements of up to 9.3%
in the MNIST data set and 13% in the CIFAR-10 data set. Training using
transformed images with higher luminance values increases the robustness of the
classifier. We have shown that transfer learning is disadvantageous for
adversarial machine learning. The results indicate that simple adversarial
examples can improve resilience and make deep learning easier to apply in
various applications.
- Abstract(参考訳): ネットワークアーキテクチャのパフォーマンスが大幅に向上したにもかかわらず、敵攻撃の感受性は、ディープラーニングを安全クリティカルなアプリケーションで実装することを困難にしている。
本稿では,この問題に対するデータ中心アプローチを提案する。
異なる輝度値を持つ非局所分調法は、修正国立標準技術データベース(mnist)とカナダ高等研究院(cifar-10)のデータセットから逆の例を生成するために使用されている。
摂動下では、mnistデータセットでは最大9.3%、cifar-10データセットでは13%の絶対精度向上が得られた。
輝度値の高い変換画像を用いたトレーニングは、分類器のロバスト性を高める。
我々は,移動学習が逆機械学習に不利であることを示した。
以上の結果から, 単純な対向例はレジリエンスを向上し, 深層学習を多様なアプリケーションに適用しやすくする可能性が示唆された。
関連論文リスト
- Towards Robust Out-of-Distribution Generalization: Data Augmentation and Neural Architecture Search Approaches [4.577842191730992]
我々は、ディープラーニングのための堅牢なOoD一般化への道を探る。
まず,認識に必須でない特徴間の素早い相関を解消するための,新しい効果的なアプローチを提案する。
次に,OoDシナリオにおけるニューラルアーキテクチャ探索の強化問題について検討する。
論文 参考訳(メタデータ) (2024-10-25T20:50:32Z) - Nonlinear Transformations Against Unlearnable Datasets [4.876873339297269]
自動スクラップは、データ所有者の許可なしにディープラーニングモデルのデータを収集する一般的な方法として際立っている。
近年,このデータ収集手法に関するプライバシー問題に取り組み始めている。
学習不可能(unlearnable)な例と呼ばれるこれらのアプローチによって生成されたデータは、ディープラーニングモデルによって"学習"される。
論文 参考訳(メタデータ) (2024-06-05T03:00:47Z) - Improving Robustness to Model Inversion Attacks via Sparse Coding Architectures [4.962316236417777]
最近のモデル反転攻撃アルゴリズムでは、ニューラルネットワークのプライベートかつ潜在的に敏感なトレーニングデータを繰り返しクエリすることで、敵が再構築することができる。
我々は,このタイプの攻撃に対して優れたロバスト性を得るために,スパースコーディング層を利用する新しいネットワークアーキテクチャを開発した。
論文 参考訳(メタデータ) (2024-03-21T18:26:23Z) - SIRST-5K: Exploring Massive Negatives Synthesis with Self-supervised
Learning for Robust Infrared Small Target Detection [53.19618419772467]
単一フレーム赤外線小ターゲット検出(SIRST)は、乱雑な背景から小さなターゲットを認識することを目的としている。
Transformerの開発に伴い、SIRSTモデルのスケールは常に増大している。
赤外線小ターゲットデータの多彩な多様性により,本アルゴリズムはモデル性能と収束速度を大幅に改善する。
論文 参考訳(メタデータ) (2024-03-08T16:14:54Z) - Leveraging Neural Radiance Fields for Uncertainty-Aware Visual
Localization [56.95046107046027]
我々は,Neural Radiance Fields (NeRF) を用いてシーン座標回帰のためのトレーニングサンプルを生成することを提案する。
レンダリングにおけるNeRFの効率にもかかわらず、レンダリングされたデータの多くはアーティファクトによって汚染されるか、最小限の情報ゲインしか含まない。
論文 参考訳(メタデータ) (2023-10-10T20:11:13Z) - Evaluating Membership Inference Through Adversarial Robustness [6.983991370116041]
本稿では,敵の強靭性に基づくメンバシップ推論攻撃の強化手法を提案する。
提案手法をFashion-MNIST, CIFAR-10, CIFAR-100の3つのデータセットで評価した。
論文 参考訳(メタデータ) (2022-05-14T06:48:47Z) - Improving robustness of jet tagging algorithms with adversarial training [56.79800815519762]
本研究では,フレーバータグ付けアルゴリズムの脆弱性について,敵攻撃による検証を行った。
シミュレーション攻撃の影響を緩和する対人訓練戦略を提案する。
論文 参考訳(メタデータ) (2022-03-25T19:57:19Z) - Semantic Perturbations with Normalizing Flows for Improved
Generalization [62.998818375912506]
我々は、非教師付きデータ拡張を定義するために、潜在空間における摂動が利用できることを示す。
トレーニングを通して分類器に適応する潜伏性対向性摂動が最も効果的であることが判明した。
論文 参考訳(メタデータ) (2021-08-18T03:20:00Z) - Mitigating the Impact of Adversarial Attacks in Very Deep Networks [10.555822166916705]
Deep Neural Network (DNN)モデルにはセキュリティに関する脆弱性がある。
データ中毒による摂動攻撃は、モデルに偽データを注入する複雑な敵対攻撃である。
そこで本研究では,攻撃に依存しない防御手法を提案する。
論文 参考訳(メタデータ) (2020-12-08T21:25:44Z) - Adversarial Self-Supervised Contrastive Learning [62.17538130778111]
既存の対数学習アプローチは、主にクラスラベルを使用して、誤った予測につながる対数サンプルを生成する。
本稿では,未ラベルデータに対する新たな逆攻撃を提案する。これにより,モデルが摂動データサンプルのインスタンスレベルのアイデンティティを混乱させる。
ラベル付きデータなしで頑健なニューラルネットワークを逆さまにトレーニングするための,自己教師付きコントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-13T08:24:33Z) - Learn2Perturb: an End-to-end Feature Perturbation Learning to Improve
Adversarial Robustness [79.47619798416194]
Learn2Perturbは、ディープニューラルネットワークの対角的堅牢性を改善するために、エンドツーエンドの機能摂動学習アプローチである。
予測最大化にインスパイアされ、ネットワークと雑音パラメータを連続的にトレーニングするために、交互にバックプロパゲーショントレーニングアルゴリズムが導入された。
論文 参考訳(メタデータ) (2020-03-02T18:27:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。