論文の概要: Robust Sensible Adversarial Learning of Deep Neural Networks for Image
Classification
- arxiv url: http://arxiv.org/abs/2205.10457v1
- Date: Fri, 20 May 2022 22:57:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-24 14:10:36.000042
- Title: Robust Sensible Adversarial Learning of Deep Neural Networks for Image
Classification
- Title(参考訳): 画像分類のための深部ニューラルネットワークのロバスト対応学習
- Authors: Jungeum Kim and Xiao Wang
- Abstract要約: 直感的な対人学習を導入し、標準的な自然の正確さと頑健さの追求と相乗効果を実証する。
具体的には、より自然な精度を維持しながら頑健なモデルを学ぶのに有用な、合理的な敵を定義する。
暗黙の損失トランケーションを用いてロバストモデルをトレーニングする,新しい,効率的なアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 6.594522185216161
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The idea of robustness is central and critical to modern statistical
analysis. However, despite the recent advances of deep neural networks (DNNs),
many studies have shown that DNNs are vulnerable to adversarial attacks. Making
imperceptible changes to an image can cause DNN models to make the wrong
classification with high confidence, such as classifying a benign mole as a
malignant tumor and a stop sign as a speed limit sign. The trade-off between
robustness and standard accuracy is common for DNN models. In this paper, we
introduce sensible adversarial learning and demonstrate the synergistic effect
between pursuits of standard natural accuracy and robustness. Specifically, we
define a sensible adversary which is useful for learning a robust model while
keeping high natural accuracy. We theoretically establish that the Bayes
classifier is the most robust multi-class classifier with the 0-1 loss under
sensible adversarial learning. We propose a novel and efficient algorithm that
trains a robust model using implicit loss truncation. We apply sensible
adversarial learning for large-scale image classification to a handwritten
digital image dataset called MNIST and an object recognition colored image
dataset called CIFAR10. We have performed an extensive comparative study to
compare our method with other competitive methods. Our experiments empirically
demonstrate that our method is not sensitive to its hyperparameter and does not
collapse even with a small model capacity while promoting robustness against
various attacks and keeping high natural accuracy.
- Abstract(参考訳): 堅牢性の概念は、現代統計分析の中心的で批判的である。
しかし、近年のディープニューラルネットワーク(DNN)の発展にもかかわらず、多くの研究で、DNNは敵の攻撃に弱いことが示されている。
画像に認識不能な変更を加えると、DNNモデルは悪性腫瘍として良性モールを分類し、速度制限標識として停止標識を分類するなど、誤った分類を高い信頼性で行うことができる。
堅牢性と標準精度のトレードオフはDNNモデルでは一般的である。
本稿では, 直感的対角学習を導入し, 標準的な自然精度の追求と頑健さの相乗効果を示す。
具体的には,高い自然な正確性を維持しつつ,頑健なモデルを学ぶ上で有用な,賢明な逆境を定義する。
理論上、ベイズ分類器は知覚可能な逆学習下で 0-1 の損失を持つ最も頑健なマルチクラス分類器である。
暗黙的損失切り換えを用いたロバストモデルを学習する新しい効率的なアルゴリズムを提案する。
我々は,MNISTと呼ばれる手書きデジタル画像データセットと,CIFAR10と呼ばれるオブジェクト認識カラー画像データセットに,大規模画像分類のための有能な逆学習を適用した。
我々は,本手法を他の競合手法と比較するために,広範な比較研究を行った。
実験により,本手法はハイパーパラメータに敏感ではなく,モデルキャパシティが小さくても崩壊しないとともに,各種攻撃に対する堅牢性を向上し,高い自然精度を維持することが実証された。
関連論文リスト
- MOREL: Enhancing Adversarial Robustness through Multi-Objective Representation Learning [1.534667887016089]
ディープニューラルネットワーク(DNN)は、わずかに敵対的な摂動に対して脆弱である。
トレーニング中の強力な特徴表現学習は、元のモデルの堅牢性を大幅に向上させることができることを示す。
本稿では,多目的特徴表現学習手法であるMORELを提案する。
論文 参考訳(メタデータ) (2024-10-02T16:05:03Z) - Adversarial Robustification via Text-to-Image Diffusion Models [56.37291240867549]
アドリラルロバスト性は、ニューラルネットワークをエンコードする難しい性質として伝統的に信じられてきた。
データを使わずに敵の堅牢性を実現するために,スケーラブルでモデルに依存しないソリューションを開発した。
論文 参考訳(メタデータ) (2024-07-26T10:49:14Z) - Utilizing Adversarial Examples for Bias Mitigation and Accuracy Enhancement [3.0820287240219795]
本稿では,コンピュータビジョンモデルにおけるバイアスを軽減するための新しい手法を提案する。
提案手法は,カリキュラム学習フレームワークと詳細な逆数損失を組み合わせることで,逆数例を用いてモデルを微調整する。
我々は,定性評価と定量的評価を併用し,従来の方法と比較してバイアス緩和と精度の向上を実証した。
論文 参考訳(メタデータ) (2024-04-18T00:41:32Z) - A Comprehensive Study on Robustness of Image Classification Models:
Benchmarking and Rethinking [54.89987482509155]
ディープニューラルネットワークのロバスト性は、通常、敵の例、共通の腐敗、分散シフトに欠けている。
画像分類タスクにおいてtextbfARES-Bench と呼ばれる総合的なベンチマークロバスト性を確立する。
それに応じてトレーニング設定を設計することにより、新しい最先端の対人ロバスト性を実現する。
論文 参考訳(メタデータ) (2023-02-28T04:26:20Z) - AccelAT: A Framework for Accelerating the Adversarial Training of Deep
Neural Networks through Accuracy Gradient [12.118084418840152]
アドリヤトレーニングを利用して、悪意のある変更データに対する堅牢なディープニューラルネットワーク(DNN)モデルを開発する。
本研究の目的は、敵の攻撃に対して堅牢なDNNモデルの迅速な開発を可能にするために、敵の訓練を加速することである。
論文 参考訳(メタデータ) (2022-10-13T10:31:51Z) - Latent Boundary-guided Adversarial Training [61.43040235982727]
モデルトレーニングに敵の例を注入する最も効果的な戦略は、敵のトレーニングであることが証明されている。
本稿では, LAtent bounDary-guided aDvErsarial tRaining という新たな逆トレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-08T07:40:55Z) - Neural Architecture Dilation for Adversarial Robustness [56.18555072877193]
畳み込みニューラルネットワークの欠点は、敵の攻撃に弱いことである。
本稿では, 良好な精度を有する背骨CNNの対角的堅牢性を向上させることを目的とする。
最小限の計算オーバーヘッドの下では、拡張アーキテクチャはバックボーンCNNの標準的な性能と親和性が期待できる。
論文 参考訳(メタデータ) (2021-08-16T03:58:00Z) - Adversarial Robustness Study of Convolutional Neural Network for Lumbar
Disk Shape Reconstruction from MR images [1.2809525640002362]
本研究では, 腰椎MR画像から腰椎椎間板形状を再構成するための代表的CNNのin-distriion (IND) とout-of-distriion (OOD) の対向性について検討した。
以上の結果から, IND対人訓練は, IND対人攻撃に対するCNNのロバスト性を向上し, より大きなトレーニングデータセットがIND対人攻撃のロバスト性を高める可能性が示唆された。
論文 参考訳(メタデータ) (2021-02-04T20:57:49Z) - Firearm Detection via Convolutional Neural Networks: Comparing a
Semantic Segmentation Model Against End-to-End Solutions [68.8204255655161]
武器の脅威検出とライブビデオからの攻撃的な行動は、潜在的に致命的な事故の迅速検出と予防に使用できる。
これを実現する一つの方法は、人工知能と、特に画像分析のための機械学習を使用することです。
従来のモノリシックなエンド・ツー・エンドのディープラーニングモデルと、セマンティクスセグメンテーションによって火花を検知する単純なニューラルネットワークのアンサンブルに基づく前述したモデルを比較した。
論文 参考訳(メタデータ) (2020-12-17T15:19:29Z) - Adversarial Self-Supervised Contrastive Learning [62.17538130778111]
既存の対数学習アプローチは、主にクラスラベルを使用して、誤った予測につながる対数サンプルを生成する。
本稿では,未ラベルデータに対する新たな逆攻撃を提案する。これにより,モデルが摂動データサンプルのインスタンスレベルのアイデンティティを混乱させる。
ラベル付きデータなしで頑健なニューラルネットワークを逆さまにトレーニングするための,自己教師付きコントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-13T08:24:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。