論文の概要: Morphence-2.0: Evasion-Resilient Moving Target Defense Powered by
Out-of-Distribution Detection
- arxiv url: http://arxiv.org/abs/2206.07321v1
- Date: Wed, 15 Jun 2022 06:51:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-16 15:13:51.267081
- Title: Morphence-2.0: Evasion-Resilient Moving Target Defense Powered by
Out-of-Distribution Detection
- Title(参考訳): Morphence-2.0: アウト・オブ・ディストリビューション検出による弾性移動目標防衛
- Authors: Abderrahmen Amich, Ata Kaboudi, Birhanu Eshete
- Abstract要約: 敵の例に対する防御のために,OoD(out-of-distriion)検出を応用したMTDであるMorphence-2.0を導入する。
Morphence-2.0はベースモデルから生成されたモデルのプールを、予測クエリに応答するときに十分なランダム性をもたらす方法で展開する。
また,Morphence-2.0は,クリーンデータに対する精度を保ちつつ,攻撃伝達性を低下させつつ,防御性能を常に向上させることを示した。
- 参考スコア(独自算出の注目度): 13.674351273679457
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Evasion attacks against machine learning models often succeed via iterative
probing of a fixed target model, whereby an attack that succeeds once will
succeed repeatedly. One promising approach to counter this threat is making a
model a moving target against adversarial inputs. To this end, we introduce
Morphence-2.0, a scalable moving target defense (MTD) powered by
out-of-distribution (OOD) detection to defend against adversarial examples. By
regularly moving the decision function of a model, Morphence-2.0 makes it
significantly challenging for repeated or correlated attacks to succeed.
Morphence-2.0 deploys a pool of models generated from a base model in a manner
that introduces sufficient randomness when it responds to prediction queries.
Via OOD detection, Morphence-2.0 is equipped with a scheduling approach that
assigns adversarial examples to robust decision functions and benign samples to
an undefended accurate models. To ensure repeated or correlated attacks fail,
the deployed pool of models automatically expires after a query budget is
reached and the model pool is seamlessly replaced by a new model pool generated
in advance. We evaluate Morphence-2.0 on two benchmark image classification
datasets (MNIST and CIFAR10) against 4 reference attacks (3 white-box and 1
black-box). Morphence-2.0 consistently outperforms prior defenses while
preserving accuracy on clean data and reducing attack transferability. We also
show that, when powered by OOD detection, Morphence-2.0 is able to precisely
make an input-based movement of the model's decision function that leads to
higher prediction accuracy on both adversarial and benign queries.
- Abstract(参考訳): 機械学習モデルに対する侵入攻撃は、しばしば固定されたターゲットモデルの反復的探索を通じて成功し、一度成功した攻撃が繰り返し成功する。
この脅威に対抗する有望なアプローチの1つは、モデルが敵の入力に対して動くターゲットにすることである。
そこで本研究では,拡張性のある移動目標防御(mtd)であるmorphence-2.0を提案する。
Morphence-2.0はモデルの決定関数を定期的に移動することによって、繰り返しまたは相関した攻撃が成功するのを著しく困難にする。
Morphence-2.0はベースモデルから生成されたモデルのプールを、予測クエリに応答するときに十分なランダム性をもたらす方法で展開する。
OOD検出において、Morphence-2.0は、頑健な決定関数と良性なサンプルを無防備な正確なモデルに割り当てるスケジューリングアプローチを備えている。
繰り返しまたは相関攻撃が失敗することを保証するため、クエリ予算に達した後、モデルのデプロイプールが自動的に終了し、モデルプールが予め生成された新しいモデルプールにシームレスに置き換えられる。
我々はMorphence-2.0を2つのベンチマーク画像分類データセット(MNISTとCIFAR10)で4つの基準攻撃(ホワイトボックスとブラックボックス1)に対して評価した。
morphence-2.0は、クリーンデータの精度を維持し、攻撃伝達性を低下させながら、常に以前の防御を上回っている。
また,OOD検出を利用すると,Morphence-2.0はモデル決定関数の入力ベース動作を正確に行うことができ,逆クエリと良クエリの両方で高い精度で予測できることを示す。
関連論文リスト
- Model X-ray:Detecting Backdoored Models via Decision Boundary [62.675297418960355]
バックドア攻撃はディープニューラルネットワーク(DNN)に重大な脆弱性をもたらす
図形化された2次元(2次元)決定境界の解析に基づく新しいバックドア検出手法であるモデルX線を提案する。
提案手法は,クリーンサンプルが支配する意思決定領域とラベル分布の集中度に着目した2つの戦略を含む。
論文 参考訳(メタデータ) (2024-02-27T12:42:07Z) - Exploring Model Dynamics for Accumulative Poisoning Discovery [62.08553134316483]
そこで我々は,モデルレベルの情報を通して,防衛を探索するための新しい情報尺度,すなわち,記憶の離散性(Memorization Discrepancy)を提案する。
暗黙的にデータ操作の変更をモデル出力に転送することで、メモリ識別は許容できない毒のサンプルを発見することができる。
我々は、その性質を徹底的に探求し、累積中毒に対する防御のために、離散型サンプル補正(DSC)を提案する。
論文 参考訳(メタデータ) (2023-06-06T14:45:24Z) - Adversarial Pixel Restoration as a Pretext Task for Transferable
Perturbations [54.1807206010136]
トランスファー可能な敵攻撃は、事前訓練された代理モデルと既知のラベル空間から敵を最適化し、未知のブラックボックスモデルを騙す。
本稿では,効果的なサロゲートモデルをスクラッチからトレーニングするための自己教師型代替手段として,Adversarial Pixel Restorationを提案する。
我々のトレーニングアプローチは、敵の目標を通したオーバーフィッティングを減らすmin-maxの目標に基づいています。
論文 参考訳(メタデータ) (2022-07-18T17:59:58Z) - Adversarial Robustness Assessment of NeuroEvolution Approaches [1.237556184089774]
CIFAR-10画像分類タスクにおける2つのNeuroEvolutionアプローチにより得られたモデルのロバスト性を評価する。
以上の結果から,進化したモデルが反復的手法で攻撃されると,その精度は通常0に低下するか0に近づきます。
これらの技法のいくつかは、元の入力に付加された摂動を悪化させ、頑丈さを損なう可能性がある。
論文 参考訳(メタデータ) (2022-07-12T10:40:19Z) - Black-box Adversarial Attacks on Network-wide Multi-step Traffic State
Prediction Models [4.353029347463806]
予測モデルをブラックボックスとして扱うことで,敵攻撃の枠組みを提案する。
相手は任意の入力で予測モデルを導出し、対応する出力を得る。
攻撃の有効性を検証するため,グラフニューラルネットワークベースモデル(GCGRNNとDCRNN)の2つの状態について検討した。
論文 参考訳(メタデータ) (2021-10-17T03:45:35Z) - Morphence: Moving Target Defense Against Adversarial Examples [3.822543555265593]
モフレンス(英: Morphence)は、モデルを敵の例に対して動くターゲットにすることで、防御的景観を変えるアプローチである。
Morphenceはベースモデルから生成されたモデルのプールを、予測クエリに応答するときに十分なランダム性をもたらす方法で展開する。
あらゆるケースにおいて、モルフェンスは、強力なホワイトボックス攻撃に直面した場合でも、そのように遠くの効果的な防御、敵の訓練を一貫して上回っている。
論文 参考訳(メタデータ) (2021-08-31T16:18:15Z) - Poisoning MorphNet for Clean-Label Backdoor Attack to Point Clouds [37.77952251676744]
本稿では,ポイントクラウド上の最初のバックドア攻撃手法である Poisoning MorphNet について述べる。
バックドアアタックは、トレーニング段階でトリガーをモデルに挿入することを目的としており、トリガーがサンプルに存在しない限り、被害者モデルはクリーンデータ上で正常に動作します。
論文 参考訳(メタデータ) (2021-05-11T07:48:39Z) - Probing Model Signal-Awareness via Prediction-Preserving Input
Minimization [67.62847721118142]
モデルが正しい脆弱性信号を捕捉して予測する能力を評価する。
SAR(Signal-Aware Recall)と呼ばれる新しい指標を用いて,モデルの信号認識を計測する。
その結果,90年代以降のリコールから60年代以降のリコールは,新たな指標で大幅に減少した。
論文 参考訳(メタデータ) (2020-11-25T20:05:23Z) - Detection as Regression: Certified Object Detection by Median Smoothing [50.89591634725045]
この研究は、ランダム化平滑化による認定分類の最近の進歩によって動機付けられている。
我々は、$ell$-bounded攻撃に対するオブジェクト検出のための、最初のモデル非依存、トレーニング不要、認定された防御条件を得る。
論文 参考訳(メタデータ) (2020-07-07T18:40:19Z) - Defense for Black-box Attacks on Anti-spoofing Models by Self-Supervised
Learning [71.17774313301753]
本研究では,自己指導型高水準表現の堅牢性について,敵攻撃に対する防御に利用して検討する。
ASVspoof 2019データセットの実験結果は、Mockingjayによって抽出されたハイレベルな表現が、敵の例の転送可能性を妨げることを示した。
論文 参考訳(メタデータ) (2020-06-05T03:03:06Z) - Luring of transferable adversarial perturbations in the black-box
paradigm [0.0]
我々は、ブラックボックス転送攻撃に対するモデルの堅牢性を改善するための新しいアプローチを提案する。
除去可能な追加ニューラルネットワークが対象モデルに含まれており、テクスチャリング効果を誘導するように設計されている。
提案手法は,対象モデルの予測にのみアクセス可能であり,ラベル付きデータセットを必要としない。
論文 参考訳(メタデータ) (2020-04-10T06:48:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。