論文の概要: RAILS: A Robust Adversarial Immune-inspired Learning System
- arxiv url: http://arxiv.org/abs/2107.02840v1
- Date: Sun, 27 Jun 2021 17:57:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-11 11:32:50.193420
- Title: RAILS: A Robust Adversarial Immune-inspired Learning System
- Title(参考訳): RAILS:ロバストな対人免疫誘発学習システム
- Authors: Ren Wang, Tianqi Chen, Stephen Lindsly, Cooper Stansbury, Alnawaz
Rehemtulla, Indika Rajapakse, Alfred Hero
- Abstract要約: 適応免疫システム(RAILS)にインスパイアされた新しい対人防御フレームワークを開発する。
RAILSは、堅牢性(多様性)と正確性(特異性)のトレードオフを示す
PGD攻撃では、RAILSは、標準精度を損なうことなく、それぞれ5.62%、12.5%、および10.32%の既存の手法よりも堅牢性を向上させる。
- 参考スコア(独自算出の注目度): 14.772880825645819
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial attacks against deep neural networks (DNNs) are continuously
evolving, requiring increasingly powerful defense strategies. We develop a
novel adversarial defense framework inspired by the adaptive immune system: the
Robust Adversarial Immune-inspired Learning System (RAILS). Initializing a
population of exemplars that is balanced across classes, RAILS starts from a
uniform label distribution that encourages diversity and debiases a potentially
corrupted initial condition. RAILS implements an evolutionary optimization
process to adjust the label distribution and achieve specificity towards ground
truth. RAILS displays a tradeoff between robustness (diversity) and accuracy
(specificity), providing a new immune-inspired perspective on adversarial
learning. We empirically validate the benefits of RAILS through several
adversarial image classification experiments on MNIST, SVHN, and CIFAR-10
datasets. For the PGD attack, RAILS is found to improve the robustness over
existing methods by >= 5.62%, 12.5% and 10.32%, respectively, without
appreciable loss of standard accuracy.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)に対する敵対的攻撃は継続的に進化し、ますます強力な防衛戦略を必要としている。
本稿では,ロバスト免疫誘導学習システム(RAILS)の適応免疫システムにヒントを得た,新たな対人防御フレームワークを開発する。
RAILSは、クラス間でバランスの取れた模範者の集団を初期化し、多様性を奨励し、潜在的に腐敗した初期条件を脱臭する均一なラベル分布から始める。
RAILSは、ラベルの分布を調整し、真理への特異性を達成するための進化的最適化プロセスを実装している。
RAILSは、堅牢性(多様性)と正確性(特異性)のトレードオフを示し、敵対的学習に対する新たな免疫に触発された視点を提供する。
我々は,MNIST,SVHN,CIFAR-10データセット上の複数の逆画像分類実験を通じて,RAILSの利点を実証的に検証した。
PGD攻撃では、RAILSは、標準精度を損なうことなく、それぞれ5.62%、12.5%、および10.32%の既存の手法よりも堅牢性を向上させる。
関連論文リスト
- Invariance-powered Trustworthy Defense via Remove Then Restore [7.785824663793149]
ディープニューラルネットワーク(DNN)の展開にアドリアックが挑戦
主な発見は、敵のサンプルにおける健全な攻撃が攻撃過程を支配することである。
標的治療機構に追従した画像手術とセマンティック再生モデルを開発した。
論文 参考訳(メタデータ) (2024-02-01T03:34:48Z) - Advancing Adversarial Robustness Through Adversarial Logit Update [10.041289551532804]
敵の訓練と敵の浄化は最も広く認知されている防衛戦略の一つである。
そこで本稿では,新たな原則であるALU(Adversarial Logit Update)を提案する。
本手法は,幅広い敵攻撃に対する最先端手法と比較して,優れた性能を実現する。
論文 参考訳(メタデータ) (2023-08-29T07:13:31Z) - Adversarial Amendment is the Only Force Capable of Transforming an Enemy
into a Friend [29.172689524555015]
敵対的攻撃は、誤解を招く行動のため、ニューラルネットワークに対する大きな脅威と見なされることが多い。
本稿では, 敵攻撃を応用して, 正しい修正を行えば, ニューラルモデルを改善するという, 逆の視点を提示する。
論文 参考訳(メタデータ) (2023-05-18T07:13:02Z) - Can pruning improve certified robustness of neural networks? [106.03070538582222]
ニューラルネット・プルーニングはディープ・ニューラル・ネットワーク(NN)の実証的ロバスト性を向上させることができることを示す。
実験の結果,NNを適切に刈り取ることで,その精度を8.2%まで向上させることができることがわかった。
さらに,認証された宝くじの存在が,従来の密集モデルの標準および認証された堅牢な精度に一致することを観察する。
論文 参考訳(メタデータ) (2022-06-15T05:48:51Z) - Enhancing Adversarial Training with Feature Separability [52.39305978984573]
本稿では,特徴分離性を備えた対人訓練(ATFS)により,クラス内特徴の類似性を向上し,クラス間特徴分散を増大させることができる,新たな対人訓練グラフ(ATG)を提案する。
包括的な実験を通じて、提案したATFSフレームワークがクリーンかつロバストなパフォーマンスを著しく改善することを示した。
論文 参考訳(メタデータ) (2022-05-02T04:04:23Z) - Robustness through Cognitive Dissociation Mitigation in Contrastive
Adversarial Training [2.538209532048867]
本稿では,新たなニューラルネットワークトレーニングフレームワークを提案する。
本稿では,データ拡張と対向的摂動の両面に一貫性のある特徴表現を学習することで,敵攻撃に対するモデルロバスト性を改善することを提案する。
我々は,CIFAR-10データセットを用いて,教師付きおよび自己教師付き対向学習法よりも頑健な精度とクリーンな精度を両立させる手法を検証する。
論文 参考訳(メタデータ) (2022-03-16T21:41:27Z) - Adaptive Feature Alignment for Adversarial Training [56.17654691470554]
CNNは通常、敵攻撃に対して脆弱であり、セキュリティに敏感なアプリケーションに脅威をもたらす。
任意の攻撃強度の特徴を生成するための適応的特徴アライメント(AFA)を提案する。
本手法は任意の攻撃強度の特徴を自動的に整列するように訓練されている。
論文 参考訳(メタデータ) (2021-05-31T17:01:05Z) - Learning and Certification under Instance-targeted Poisoning [49.55596073963654]
インスタンスターゲット中毒攻撃におけるPAC学習性と認証について検討する。
敵の予算がサンプルの複雑さに比例してスケールすると、PACの学習性と認定が達成可能であることを示す。
実データセット上でのK近傍, ロジスティック回帰, 多層パーセプトロン, 畳み込みニューラルネットワークの堅牢性を実証的に検討する。
論文 参考訳(メタデータ) (2021-05-18T17:48:15Z) - RAILS: A Robust Adversarial Immune-inspired Learning System [15.653578249331982]
我々は、Robust Adversarial Immune-inspired Learning System (RAILS)と呼ばれる新しい対人防御フレームワークを提案する。
RAILSは、病原体による攻撃からホストを守るために使用される生物学的メカニズムをシリコでエミュレートする適応免疫システムエミュレーション(AISE)を組み込んでいます。
RAILS学習曲線は, 生体内実験で観察されたように, 多様性選択学習フェーズを示す。
論文 参考訳(メタデータ) (2020-12-18T19:47:12Z) - How Robust are Randomized Smoothing based Defenses to Data Poisoning? [66.80663779176979]
我々は、トレーニングデータの品質の重要性を強調する堅牢な機械学習モデルに対して、これまで認識されていなかった脅威を提示します。
本稿では,二段階最適化に基づく新たなデータ中毒攻撃法を提案し,ロバストな分類器のロバスト性を保証する。
我々の攻撃は、被害者が最先端のロバストな訓練方法を用いて、ゼロからモデルを訓練しても効果的である。
論文 参考訳(メタデータ) (2020-12-02T15:30:21Z) - Adversarial Robustness on In- and Out-Distribution Improves
Explainability [109.68938066821246]
RATIOは、Adversarial Training on In- and Out-distriionを通じて、堅牢性のためのトレーニング手順である。
RATIOはCIFAR10で最先端の$l$-adrialを実現し、よりクリーンな精度を維持している。
論文 参考訳(メタデータ) (2020-03-20T18:57:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。