論文の概要: RAILS: A Robust Adversarial Immune-inspired Learning System
- arxiv url: http://arxiv.org/abs/2012.10485v1
- Date: Fri, 18 Dec 2020 19:47:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-01 18:23:57.968539
- Title: RAILS: A Robust Adversarial Immune-inspired Learning System
- Title(参考訳): RAILS:ロバストな対人免疫誘発学習システム
- Authors: Ren Wang, Tianqi Chen, Stephen Lindsly, Alnawaz Rehemtulla, Alfred
Hero, Indika Rajapakse
- Abstract要約: 我々は、Robust Adversarial Immune-inspired Learning System (RAILS)と呼ばれる新しい対人防御フレームワークを提案する。
RAILSは、病原体による攻撃からホストを守るために使用される生物学的メカニズムをシリコでエミュレートする適応免疫システムエミュレーション(AISE)を組み込んでいます。
RAILS学習曲線は, 生体内実験で観察されたように, 多様性選択学習フェーズを示す。
- 参考スコア(独自算出の注目度): 15.653578249331982
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial attacks against deep neural networks are continuously evolving.
Without effective defenses, they can lead to catastrophic failure. The
long-standing and arguably most powerful natural defense system is the
mammalian immune system, which has successfully defended against attacks by
novel pathogens for millions of years. In this paper, we propose a new
adversarial defense framework, called the Robust Adversarial Immune-inspired
Learning System (RAILS). RAILS incorporates an Adaptive Immune System Emulation
(AISE), which emulates in silico the biological mechanisms that are used to
defend the host against attacks by pathogens. We use RAILS to harden Deep
k-Nearest Neighbor (DkNN) architectures against evasion attacks. Evolutionary
programming is used to simulate processes in the natural immune system: B-cell
flocking, clonal expansion, and affinity maturation. We show that the RAILS
learning curve exhibits similar diversity-selection learning phases as observed
in our in vitro biological experiments. When applied to adversarial image
classification on three different datasets, RAILS delivers an additional
5.62%/12.56%/4.74% robustness improvement as compared to applying DkNN alone,
without appreciable loss of accuracy on clean data.
- Abstract(参考訳): ディープニューラルネットワークに対する敵対的攻撃は継続的に進化している。
効果的な防御がなければ、壊滅的な失敗につながる可能性がある。
長年、そして間違いなく最も強力な天然防衛システムは哺乳類の免疫システムであり、何百万年も前から新しい病原体による攻撃を防いできた。
本稿では,Robust Adversarial Immune-inspired Learning System (RAILS) と呼ばれる,新たな対人防御フレームワークを提案する。
RAILSにはアダプティブ免疫系エミュレーション(Adaptive Immune System Emulation、AISE)が組み込まれており、病原体による攻撃から宿主を守るための生物学的メカニズムをシリコでエミュレートする。
我々はRAILSを用いて、ディープk-Nearest Neighbor(DkNN)アーキテクチャをエスケープ攻撃に対して強化する。
進化的プログラミングは、B細胞凝集、クローン伸長、親和性成熟といった自然免疫系の過程をシミュレートするために用いられる。
RAILS学習曲線は, 生体内実験で観察されたように, 多様性選択学習フェーズを示す。
3つの異なるデータセットの逆画像分類に適用すると、RAILSはクリーンなデータに精度を損なうことなく、DkNNのみを適用することと比較して、さらに5.62%/12.56%/4.74%の堅牢性向上を提供する。
関連論文リスト
- Opponent Shaping for Antibody Development [49.26728828005039]
抗ウイルス療法は通常、ウイルスの現在の株のみを標的とするように設計されている。
治療によって誘導される選択的圧力はウイルスに作用し、変異株の出現を誘導し、初期治療が効果を低下させる。
我々は、ウイルスの進化的脱出の遺伝的シミュレーションを実装するために、抗体とウイルス抗原の結合の計算モデルを構築した。
論文 参考訳(メタデータ) (2024-09-16T14:56:27Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - Immune Defense: A Novel Adversarial Defense Mechanism for Preventing the
Generation of Adversarial Examples [32.649613813876954]
敵の例に対するディープニューラルネットワーク(DNN)の脆弱性が確認されている。
免疫防御と呼ばれる新しい対向防御機構を提案する。
本機構は, 原画像に対する準知覚的摂動を慎重に設計し, 対向例の発生を防止する。
論文 参考訳(メタデータ) (2023-03-08T10:47:17Z) - Graph Adversarial Immunization for Certifiable Robustness [63.58739705845775]
グラフニューラルネットワーク(GNN)は敵の攻撃に対して脆弱である。
既存の防衛は、敵の訓練やモデル修正の開発に重点を置いている。
本稿では,グラフ構造の一部を接種するグラフ対人免疫法を提案し,定式化する。
論文 参考訳(メタデータ) (2023-02-16T03:18:43Z) - Adversarial Defense via Neural Oscillation inspired Gradient Masking [0.0]
スパイクニューラルネットワーク(SNN)は、低消費電力、低レイテンシ、生物学的妥当性のために大きな注目を集めている。
本稿では,SNNの安全性を高めるためにバイオインスパイアされた発振機構を組み込んだ新しいニューラルモデルを提案する。
論文 参考訳(メタデータ) (2022-11-04T02:13:19Z) - Searching for an Effective Defender: Benchmarking Defense against
Adversarial Word Substitution [83.84968082791444]
ディープニューラルネットワークは、意図的に構築された敵の例に対して脆弱である。
ニューラルNLPモデルに対する敵対的単語置換攻撃を防御する様々な方法が提案されている。
論文 参考訳(メタデータ) (2021-08-29T08:11:36Z) - RAILS: A Robust Adversarial Immune-inspired Learning System [14.772880825645819]
適応免疫システム(RAILS)にインスパイアされた新しい対人防御フレームワークを開発する。
RAILSは、堅牢性(多様性)と正確性(特異性)のトレードオフを示す
PGD攻撃では、RAILSは、標準精度を損なうことなく、それぞれ5.62%、12.5%、および10.32%の既存の手法よりも堅牢性を向上させる。
論文 参考訳(メタデータ) (2021-06-27T17:57:45Z) - Immuno-mimetic Deep Neural Networks (Immuno-Net) [15.653578249331982]
免疫系から概念を借りた新しいタイプの生体模倣モデルを導入する。
この免疫模倣モデルは、ディープニューラルネットワークの堅牢化のための新しい計算生物学フレームワークをもたらす。
また,Immuno-net RAILSは,ベースライン法の正逆精度を最大12.5%向上させることを示した。
論文 参考訳(メタデータ) (2021-06-27T16:45:23Z) - Adversarial defense for automatic speaker verification by cascaded
self-supervised learning models [101.42920161993455]
ますます悪意のある攻撃者は、自動話者検証(ASV)システムで敵攻撃を仕掛けようとする。
本稿では,逐次的自己教師付き学習モデルに基づく標準的かつ攻撃非依存な手法を提案する。
実験により, 本手法は効果的な防御性能を実現し, 敵攻撃に対抗できることを示した。
論文 参考訳(メタデータ) (2021-02-14T01:56:43Z) - Adversarial vs behavioural-based defensive AI with joint, continual and
active learning: automated evaluation of robustness to deception, poisoning
and concept drift [62.997667081978825]
人工知能(AI)の最近の進歩は、サイバーセキュリティのための行動分析(UEBA)に新たな能力をもたらした。
本稿では、検出プロセスを改善し、人間の専門知識を効果的に活用することにより、この攻撃を効果的に軽減するソリューションを提案する。
論文 参考訳(メタデータ) (2020-01-13T13:54:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。