論文の概要: RAILS: A Robust Adversarial Immune-inspired Learning System
- arxiv url: http://arxiv.org/abs/2107.02840v1
- Date: Sun, 27 Jun 2021 17:57:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-11 11:32:50.193420
- Title: RAILS: A Robust Adversarial Immune-inspired Learning System
- Title(参考訳): RAILS:ロバストな対人免疫誘発学習システム
- Authors: Ren Wang, Tianqi Chen, Stephen Lindsly, Cooper Stansbury, Alnawaz
Rehemtulla, Indika Rajapakse, Alfred Hero
- Abstract要約: 適応免疫システム(RAILS)にインスパイアされた新しい対人防御フレームワークを開発する。
RAILSは、堅牢性(多様性)と正確性(特異性)のトレードオフを示す
PGD攻撃では、RAILSは、標準精度を損なうことなく、それぞれ5.62%、12.5%、および10.32%の既存の手法よりも堅牢性を向上させる。
- 参考スコア(独自算出の注目度): 14.772880825645819
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial attacks against deep neural networks (DNNs) are continuously
evolving, requiring increasingly powerful defense strategies. We develop a
novel adversarial defense framework inspired by the adaptive immune system: the
Robust Adversarial Immune-inspired Learning System (RAILS). Initializing a
population of exemplars that is balanced across classes, RAILS starts from a
uniform label distribution that encourages diversity and debiases a potentially
corrupted initial condition. RAILS implements an evolutionary optimization
process to adjust the label distribution and achieve specificity towards ground
truth. RAILS displays a tradeoff between robustness (diversity) and accuracy
(specificity), providing a new immune-inspired perspective on adversarial
learning. We empirically validate the benefits of RAILS through several
adversarial image classification experiments on MNIST, SVHN, and CIFAR-10
datasets. For the PGD attack, RAILS is found to improve the robustness over
existing methods by >= 5.62%, 12.5% and 10.32%, respectively, without
appreciable loss of standard accuracy.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)に対する敵対的攻撃は継続的に進化し、ますます強力な防衛戦略を必要としている。
本稿では,ロバスト免疫誘導学習システム(RAILS)の適応免疫システムにヒントを得た,新たな対人防御フレームワークを開発する。
RAILSは、クラス間でバランスの取れた模範者の集団を初期化し、多様性を奨励し、潜在的に腐敗した初期条件を脱臭する均一なラベル分布から始める。
RAILSは、ラベルの分布を調整し、真理への特異性を達成するための進化的最適化プロセスを実装している。
RAILSは、堅牢性(多様性)と正確性(特異性)のトレードオフを示し、敵対的学習に対する新たな免疫に触発された視点を提供する。
我々は,MNIST,SVHN,CIFAR-10データセット上の複数の逆画像分類実験を通じて,RAILSの利点を実証的に検証した。
PGD攻撃では、RAILSは、標準精度を損なうことなく、それぞれ5.62%、12.5%、および10.32%の既存の手法よりも堅牢性を向上させる。
関連論文リスト
- Celtibero: Robust Layered Aggregation for Federated Learning [0.0]
Celtiberoは, 対向操作に対する強靭性を高めるため, 層状アグリゲーションを統合した新しい防御機構である。
セルティベロは、標的外および標的標的の毒殺攻撃において、最小攻撃成功率(ASR)を維持しつつ、常に高い主タスク精度(MTA)を達成することを実証した。
論文 参考訳(メタデータ) (2024-08-26T12:54:00Z) - Meta Invariance Defense Towards Generalizable Robustness to Unknown Adversarial Attacks [62.036798488144306]
現在の防衛は主に既知の攻撃に焦点を当てているが、未知の攻撃に対する敵意の強固さは見過ごされている。
メタ不変防衛(Meta Invariance Defense, MID)と呼ばれる攻撃非依存の防御手法を提案する。
MIDは高レベルの画像分類と低レベルの頑健な画像再生における攻撃抑制において,知覚不能な逆方向の摂動に対して同時に頑健性を実現する。
論文 参考訳(メタデータ) (2024-04-04T10:10:38Z) - FaultGuard: A Generative Approach to Resilient Fault Prediction in Smart Electrical Grids [53.2306792009435]
FaultGuardは、障害タイプとゾーン分類のための最初のフレームワークであり、敵攻撃に耐性がある。
本稿では,ロバスト性を高めるために,低複雑性故障予測モデルとオンライン逆行訓練手法を提案する。
本モデルでは,耐故障予測ベンチマークの最先端を最大0.958の精度で上回っている。
論文 参考訳(メタデータ) (2024-03-26T08:51:23Z) - Invariance-powered Trustworthy Defense via Remove Then Restore [7.785824663793149]
ディープニューラルネットワーク(DNN)の展開にアドリアックが挑戦
主な発見は、敵のサンプルにおける健全な攻撃が攻撃過程を支配することである。
標的治療機構に追従した画像手術とセマンティック再生モデルを開発した。
論文 参考訳(メタデータ) (2024-02-01T03:34:48Z) - Adversarial Amendment is the Only Force Capable of Transforming an Enemy
into a Friend [29.172689524555015]
敵対的攻撃は、誤解を招く行動のため、ニューラルネットワークに対する大きな脅威と見なされることが多い。
本稿では, 敵攻撃を応用して, 正しい修正を行えば, ニューラルモデルを改善するという, 逆の視点を提示する。
論文 参考訳(メタデータ) (2023-05-18T07:13:02Z) - Enhancing Adversarial Training with Feature Separability [52.39305978984573]
本稿では,特徴分離性を備えた対人訓練(ATFS)により,クラス内特徴の類似性を向上し,クラス間特徴分散を増大させることができる,新たな対人訓練グラフ(ATG)を提案する。
包括的な実験を通じて、提案したATFSフレームワークがクリーンかつロバストなパフォーマンスを著しく改善することを示した。
論文 参考訳(メタデータ) (2022-05-02T04:04:23Z) - Robustness through Cognitive Dissociation Mitigation in Contrastive
Adversarial Training [2.538209532048867]
本稿では,新たなニューラルネットワークトレーニングフレームワークを提案する。
本稿では,データ拡張と対向的摂動の両面に一貫性のある特徴表現を学習することで,敵攻撃に対するモデルロバスト性を改善することを提案する。
我々は,CIFAR-10データセットを用いて,教師付きおよび自己教師付き対向学習法よりも頑健な精度とクリーンな精度を両立させる手法を検証する。
論文 参考訳(メタデータ) (2022-03-16T21:41:27Z) - Adaptive Feature Alignment for Adversarial Training [56.17654691470554]
CNNは通常、敵攻撃に対して脆弱であり、セキュリティに敏感なアプリケーションに脅威をもたらす。
任意の攻撃強度の特徴を生成するための適応的特徴アライメント(AFA)を提案する。
本手法は任意の攻撃強度の特徴を自動的に整列するように訓練されている。
論文 参考訳(メタデータ) (2021-05-31T17:01:05Z) - Learning and Certification under Instance-targeted Poisoning [49.55596073963654]
インスタンスターゲット中毒攻撃におけるPAC学習性と認証について検討する。
敵の予算がサンプルの複雑さに比例してスケールすると、PACの学習性と認定が達成可能であることを示す。
実データセット上でのK近傍, ロジスティック回帰, 多層パーセプトロン, 畳み込みニューラルネットワークの堅牢性を実証的に検討する。
論文 参考訳(メタデータ) (2021-05-18T17:48:15Z) - RAILS: A Robust Adversarial Immune-inspired Learning System [15.653578249331982]
我々は、Robust Adversarial Immune-inspired Learning System (RAILS)と呼ばれる新しい対人防御フレームワークを提案する。
RAILSは、病原体による攻撃からホストを守るために使用される生物学的メカニズムをシリコでエミュレートする適応免疫システムエミュレーション(AISE)を組み込んでいます。
RAILS学習曲線は, 生体内実験で観察されたように, 多様性選択学習フェーズを示す。
論文 参考訳(メタデータ) (2020-12-18T19:47:12Z) - Adversarial Robustness on In- and Out-Distribution Improves
Explainability [109.68938066821246]
RATIOは、Adversarial Training on In- and Out-distriionを通じて、堅牢性のためのトレーニング手順である。
RATIOはCIFAR10で最先端の$l$-adrialを実現し、よりクリーンな精度を維持している。
論文 参考訳(メタデータ) (2020-03-20T18:57:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。