論文の概要: RAILS: A Robust Adversarial Immune-inspired Learning System
- arxiv url: http://arxiv.org/abs/2012.10485v1
- Date: Fri, 18 Dec 2020 19:47:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-01 18:23:57.968539
- Title: RAILS: A Robust Adversarial Immune-inspired Learning System
- Title(参考訳): RAILS:ロバストな対人免疫誘発学習システム
- Authors: Ren Wang, Tianqi Chen, Stephen Lindsly, Alnawaz Rehemtulla, Alfred
Hero, Indika Rajapakse
- Abstract要約: 我々は、Robust Adversarial Immune-inspired Learning System (RAILS)と呼ばれる新しい対人防御フレームワークを提案する。
RAILSは、病原体による攻撃からホストを守るために使用される生物学的メカニズムをシリコでエミュレートする適応免疫システムエミュレーション(AISE)を組み込んでいます。
RAILS学習曲線は, 生体内実験で観察されたように, 多様性選択学習フェーズを示す。
- 参考スコア(独自算出の注目度): 15.653578249331982
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial attacks against deep neural networks are continuously evolving.
Without effective defenses, they can lead to catastrophic failure. The
long-standing and arguably most powerful natural defense system is the
mammalian immune system, which has successfully defended against attacks by
novel pathogens for millions of years. In this paper, we propose a new
adversarial defense framework, called the Robust Adversarial Immune-inspired
Learning System (RAILS). RAILS incorporates an Adaptive Immune System Emulation
(AISE), which emulates in silico the biological mechanisms that are used to
defend the host against attacks by pathogens. We use RAILS to harden Deep
k-Nearest Neighbor (DkNN) architectures against evasion attacks. Evolutionary
programming is used to simulate processes in the natural immune system: B-cell
flocking, clonal expansion, and affinity maturation. We show that the RAILS
learning curve exhibits similar diversity-selection learning phases as observed
in our in vitro biological experiments. When applied to adversarial image
classification on three different datasets, RAILS delivers an additional
5.62%/12.56%/4.74% robustness improvement as compared to applying DkNN alone,
without appreciable loss of accuracy on clean data.
- Abstract(参考訳): ディープニューラルネットワークに対する敵対的攻撃は継続的に進化している。
効果的な防御がなければ、壊滅的な失敗につながる可能性がある。
長年、そして間違いなく最も強力な天然防衛システムは哺乳類の免疫システムであり、何百万年も前から新しい病原体による攻撃を防いできた。
本稿では,Robust Adversarial Immune-inspired Learning System (RAILS) と呼ばれる,新たな対人防御フレームワークを提案する。
RAILSにはアダプティブ免疫系エミュレーション(Adaptive Immune System Emulation、AISE)が組み込まれており、病原体による攻撃から宿主を守るための生物学的メカニズムをシリコでエミュレートする。
我々はRAILSを用いて、ディープk-Nearest Neighbor(DkNN)アーキテクチャをエスケープ攻撃に対して強化する。
進化的プログラミングは、B細胞凝集、クローン伸長、親和性成熟といった自然免疫系の過程をシミュレートするために用いられる。
RAILS学習曲線は, 生体内実験で観察されたように, 多様性選択学習フェーズを示す。
3つの異なるデータセットの逆画像分類に適用すると、RAILSはクリーンなデータに精度を損なうことなく、DkNNのみを適用することと比較して、さらに5.62%/12.56%/4.74%の堅牢性向上を提供する。
関連論文リスト
- Improving Adversarial Transferability via Neuron Attribution-Based
Attacks [35.02147088207232]
本稿では,より正確なニューロン重要度推定を行う機能レベルアタック(NAA)を提案する。
我々は、オーバーヘッドを大幅に減らすために、ニューロンの属性の近似スキームを導出する。
実験により、最先端のベンチマークに対する我々のアプローチの優位性が確認された。
論文 参考訳(メタデータ) (2022-03-31T13:47:30Z) - Few-shot Backdoor Defense Using Shapley Estimation [123.56934991060788]
我々は、深層ニューラルネットワークに対するバックドア攻撃を軽減するために、Shapley Pruningと呼ばれる新しいアプローチを開発した。
ShapPruningは、感染した数少ないニューロン(全ニューロンの1%以下)を特定し、モデルの構造と正確性を保護する。
様々な攻撃やタスクに対して,本手法の有効性とロバスト性を示す実験を行った。
論文 参考訳(メタデータ) (2021-12-30T02:27:03Z) - NIP: Neuron-level Inverse Perturbation Against Adversarial Attacks [22.668518687143244]
本研究は,攻撃前後のニューロン行動のモデルから防御法を考察する。
そこで本研究では,神経レベル逆摂動法(NIP)を提案する。
論文 参考訳(メタデータ) (2021-12-24T13:37:42Z) - Traceback of Data Poisoning Attacks in Neural Networks [24.571668412312196]
深層ニューラルネットワークに対する毒物攻撃のための法医学的トレースバックツールの開発における当社の取り組みについて述べる。
学習サンプルをトリムする新たな反復的クラスタリングおよびプルーニングソリューションを提案する。
筆者らは,3種類の汚泥(バックドア)中毒と3種類のクリーンラベル中毒に対して,本システムの有効性を実証的に実証した。
論文 参考訳(メタデータ) (2021-10-13T17:39:18Z) - Searching for an Effective Defender: Benchmarking Defense against
Adversarial Word Substitution [83.84968082791444]
ディープニューラルネットワークは、意図的に構築された敵の例に対して脆弱である。
ニューラルNLPモデルに対する敵対的単語置換攻撃を防御する様々な方法が提案されている。
論文 参考訳(メタデータ) (2021-08-29T08:11:36Z) - RAILS: A Robust Adversarial Immune-inspired Learning System [14.772880825645819]
適応免疫システム(RAILS)にインスパイアされた新しい対人防御フレームワークを開発する。
RAILSは、堅牢性(多様性)と正確性(特異性)のトレードオフを示す
PGD攻撃では、RAILSは、標準精度を損なうことなく、それぞれ5.62%、12.5%、および10.32%の既存の手法よりも堅牢性を向上させる。
論文 参考訳(メタデータ) (2021-06-27T17:57:45Z) - Immuno-mimetic Deep Neural Networks (Immuno-Net) [15.653578249331982]
免疫系から概念を借りた新しいタイプの生体模倣モデルを導入する。
この免疫模倣モデルは、ディープニューラルネットワークの堅牢化のための新しい計算生物学フレームワークをもたらす。
また,Immuno-net RAILSは,ベースライン法の正逆精度を最大12.5%向上させることを示した。
論文 参考訳(メタデータ) (2021-06-27T16:45:23Z) - The Feasibility and Inevitability of Stealth Attacks [63.14766152741211]
我々は、攻撃者が汎用人工知能システムにおける決定を制御できる新しい敵の摂動について研究する。
敵対的なデータ修正とは対照的に、ここで考慮する攻撃メカニズムには、AIシステム自体の変更が含まれる。
論文 参考訳(メタデータ) (2021-06-26T10:50:07Z) - Adversarial Visual Robustness by Causal Intervention [56.766342028800445]
敵の訓練は、敵の例に対する事実上最も有望な防御である。
しかし、その受動性は必然的に未知の攻撃者への免疫を妨げる。
我々は、敵対的脆弱性の因果的視点を提供する: 原因は、学習に普遍的に存在する共同創設者である。
論文 参考訳(メタデータ) (2021-06-17T14:23:54Z) - Adversarial defense for automatic speaker verification by cascaded
self-supervised learning models [101.42920161993455]
ますます悪意のある攻撃者は、自動話者検証(ASV)システムで敵攻撃を仕掛けようとする。
本稿では,逐次的自己教師付き学習モデルに基づく標準的かつ攻撃非依存な手法を提案する。
実験により, 本手法は効果的な防御性能を実現し, 敵攻撃に対抗できることを示した。
論文 参考訳(メタデータ) (2021-02-14T01:56:43Z) - Curse or Redemption? How Data Heterogeneity Affects the Robustness of
Federated Learning [51.15273664903583]
データの不均一性は、フェデレートラーニングにおける重要な特徴の1つとして認識されているが、しばしば敵対的攻撃に対する堅牢性のレンズで見過ごされる。
本稿では, 複合学習におけるバックドア攻撃の影響を, 総合的な実験を通じて評価し, 理解することを目的とした。
論文 参考訳(メタデータ) (2021-02-01T06:06:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。